Sitemap 토글 메뉴

AI의 편견이 마케팅 데이터를 손상시키는 방법과 그에 대해 할 수 있는 일

게시 됨: 2023-02-23

알고리즘은 마케팅과 마테크의 핵심입니다. 데이터 분석, 데이터 수집, 청중 세분화 등에 사용됩니다. 그 위에 구축된 인공 지능의 핵심에 있기 때문입니다. 마케팅 담당자는 중립적이고 신뢰할 수 있는 데이터를 제공하기 위해 AI 시스템에 의존합니다. 그렇지 않으면 마케팅 노력을 잘못 인도할 수 있습니다.

우리는 알고리즘을 편견이나 의도가 없는 일련의 규칙으로 생각하기를 좋아합니다. 그 자체로 그것이 바로 그들입니다. 그들은 의견이 없습니다.. 그러나 그 규칙은 만든 사람의 가정과 가치 위에 세워집니다. 그것이 편견이 AI에 들어가는 한 가지 방법입니다. 다른 아마도 더 중요한 방법은 훈련된 데이터를 통하는 것입니다.

자세히 알아보기: Bard와 ChatGPT는 궁극적으로 검색 경험을 향상시킬 것입니다.

예를 들어 안면 인식 시스템은 대부분 피부가 밝은 사람들의 이미지 세트에 대해 훈련됩니다. 결과적으로 그들은 피부색이 어두운 사람들을 잘 알아보지 못하는 것으로 악명이 높습니다. 한 예로, 불균형적으로 유색인종인 의회 의원 28명이 머그샷 이미지와 잘못 일치되었습니다. 이를 수정하려는 시도가 실패하자 일부 회사, 특히 Microsoft는 이러한 시스템을 경찰서에 판매하는 것을 중단했습니다.

ChatGPT, Google의 Bard 및 기타 AI 기반 챗봇은 딥 러닝을 사용하여 텍스트를 생성하는 자동 회귀 언어 모델입니다. 그 학습은 주어진 기간 동안 인터넷에 게시된 모든 것을 포함할 수 있는 거대한 데이터 세트, 즉 오류, 잘못된 정보 및 물론 편견으로 가득 찬 데이터 세트에서 훈련됩니다.

얻을 수 있는 데이터만큼만

The Marketing AI Institute의 창립자이자 CEO인 Paul Roetzer는 "인터넷에 대한 액세스 권한을 부여하면 본질적으로 편견이 존재합니다."라고 말합니다. "그것은 여러 면에서 인류의 거울일 뿐입니다."

이러한 시스템의 빌더는 이를 알고 있습니다.

TrustInsights.ai의 공동 창립자이자 수석 데이터 과학자인 Christopher Penn은 "[ChatGPT 작성자] OpenAI의 공개 및 면책 조항에서 그들은 부정적인 정서가 그 안에 설정된 다른 어떤 이름보다 아프리카계 미국인 여성 이름과 더 밀접하게 연관되어 있다고 말합니다."라고 말했습니다. “따라서 완전히 자동화된 블랙박스 감정 모델링이 있고 사람들의 이름을 판단하는 경우 Letitia가 Laura보다 낮은 점수를 받으면 문제가 있는 것입니다. 당신은 이러한 편견을 강화하고 있습니다.”

OpenAI의 모범 사례 문서에는 "환각적인 부정확한 정보에서 공격적인 출력, 편견에 이르기까지 언어 모델이 상당한 수정 없이는 모든 사용 사례에 적합하지 않을 수 있습니다."라고 나와 있습니다.

마케터는 무엇을 해야 할까요?

편견을 완화하는 것은 가능한 최상의 데이터로 작업하려는 마케터에게 필수적입니다. 그것을 제거하는 것은 영원히 움직이는 목표가 될 것이며 추구해야 할 목표이지만 반드시 달성할 필요는 없습니다.

"마케터와 마테크 기업이 생각해야 할 것은 '모델이 나중에 완화해야 하는 편향을 줄이기 위해 시작하는 편향을 줄이기 위해 들어가는 훈련 데이터에 어떻게 적용할 것인가?'입니다."라고 Christopher Penn은 말합니다. "쓰레기를 넣지 마세요. 쓰레기를 걸러낼 필요가 없습니다."

이를 수행하는 데 도움이 되는 도구가 있습니다. 가장 잘 알려진 다섯 가지는 다음과 같습니다.

  • Google의 What-If는 데이터 포인트를 조작하고 플롯을 생성하고 변경 사항이 최종 결과에 영향을 미치는지 테스트할 기준을 지정하여 모델의 편향성을 감지하는 데 도움이 되는 오픈 소스 도구입니다.
  • IBM의 AI Fairness 360은 기계 학습 모델의 편향을 감지하고 제거하는 오픈 소스 툴킷입니다.
  • 페어런 공정성과 모델 성능 간의 절충안을 탐색하는 데 도움이 되도록 설계된 Microsoft에서 제공합니다.
  • Marco Tulio Ribeiro 연구원이 만든 LIME( Local Interpretable Model-Agnostic Explanations ) 편향의 원인이 있는 경우 이를 더 잘 이해하고 지적할 수 있도록 사용자가 모델의 다양한 구성 요소를 조작할 수 있습니다.
  • 공정한ML MIT의 Julius Adebayo는 모델 입력의 상대적 중요성을 정량화하여 예측 모델을 감사하기 위한 종단 간 도구 상자입니다.

Penn은 "당신이 찾고 있는 것을 알고 있을 때 유용합니다."라고 말합니다. "상자 안에 무엇이 들어 있는지 확실하지 않을 때 품질이 떨어집니다."

입력을 판단하는 것은 쉬운 부분입니다.

예를 들어 AI Fairness 360을 사용하면 일련의 대출 결정과 연령, 성별, 인종 등의 보호 등급 목록을 제공할 수 있다고 그는 말합니다. 그런 다음 훈련 데이터 또는 모델의 편향을 식별하고 모델이 편향된 방향으로 표류하기 시작하면 경보를 울립니다.

"당신이 생성을 할 때, 특히 당신이 카피나 이미지를 만들고 있다면, 그렇게 하기가 훨씬 더 어렵습니다."라고 Penn은 말합니다. "현재 존재하는 도구는 주로 완화하려는 명확한 결과가 있는 표 형식의 직사각형 데이터를 위한 것입니다."

ChatGPT 및 Bard와 같은 콘텐츠를 생성하는 시스템은 엄청나게 컴퓨팅 집약적입니다. 편견에 대한 추가적인 보호 장치를 추가하면 성능에 상당한 영향을 미칩니다. 이것은 그것들을 구축하는 이미 어려운 작업에 추가되므로 곧 해결책을 기대하지 마십시오.

기다릴 여유가 없어

브랜드 위험 때문에 마케터는 가만히 앉아서 모델이 스스로 고칠 때까지 기다릴 여유가 없습니다. AI 생성 콘텐츠에 대해 수행해야 하는 완화 조치는 무엇이 잘못될 수 있는지 끊임없이 묻고 있습니다. 다양성, 형평성 및 포용 노력에서 가장 좋은 사람들이 요구합니다.

Penn은 “조직은 DEI 이니셔티브에 대해 말뿐인 서비스를 많이 제공합니다. 하지만 여기에서 DEI가 실제로 빛을 발할 수 있습니다. 다양성 팀이 … 모델의 출력을 검사하고 '이건 옳지 않다' 또는 '이건 옳다'라고 말하게 합니다. 그런 다음 DEI가 승인 스탬프를 부여한 것처럼 프로세스에 구축해야 합니다.”

기업이 이러한 모든 시스템에서 편견을 정의하고 완화하는 방법은 기업 문화의 중요한 지표가 될 것입니다.

"각 조직은 이 기술을 개발하고 사용하는 방법에 대한 고유한 원칙을 개발해야 합니다."라고 Paul Roetzer는 말합니다. "그리고 나는 '이것이 우리가 편향이라고 생각하는 것이고 우리는 이것을 가능하게 하는 도구를 사용하거나 사용하지 않을 것'이라는 주관적인 수준 외에 다른 방법으로 해결하는 방법을 모릅니다."


마테크를 잡아라! 일일. 무료. 받은편지함에서

용어를 참조하십시오.



관련 이야기

    지금 AI가 마케팅에 도움이 되는 방법
    Bard와 ChatGPT는 궁극적으로 검색 경험을 향상시킬 것입니다.
    윤리적 고민이 있는 마테크 4대 영역
    따라야 할 마텍의 마케팅 AI 전문가
    마케팅 기술을 변화시키기 위해 ChatGPT가 설정되는 방법

MarTech의 새로운 기능

    Toyota, 2023 Crown을 지원하기 위해 AR 경험 출시
    DAM 워크플로가 필요한 이유와 이를 매핑하는 방법은 다음과 같습니다.
    데모 중에 디지털 경험 플랫폼 벤더에게 물어볼 13가지 질문
    마케팅 담당자가 B2B용 TikTok을 고려해야 하는 5가지 이유
    ChatGPT. GA4. 프라이버시 우선 CX. MarTech에서 모두 살펴보세요!