Sitemap Comutați la meniu

Modul în care părtinirea inteligenței artificiale poate deteriora datele de marketing și ce puteți face în acest sens

Publicat: 2023-02-23

Algoritmii sunt în centrul marketingului și martech. Sunt folosite pentru analiza datelor, colectarea datelor, segmentarea publicului și multe, multe altele. Asta pentru că sunt în centrul inteligenței artificiale care este construită pe ele. Specialiștii în marketing se bazează pe sistemele AI pentru a oferi date neutre și fiabile. Dacă nu, vă poate direcționa greșit eforturile de marketing.

Ne place să ne gândim la algoritmi ca la seturi de reguli fără părtinire sau intenție. În sine, exact asta sunt. Ei nu au opinii.. Dar acele reguli sunt construite pe presupunerile și valorile creatorului lor. Acesta este un mod în care părtinirea pătrunde în AI. Cealaltă modalitate și poate mai importantă este prin datele pe care este antrenat.

Sapă mai adânc: Bard și ChatGPT vor îmbunătăți în cele din urmă experiența de căutare

De exemplu, sistemele de recunoaștere facială sunt antrenate pe seturi de imagini ale persoanelor cu tenul mai deschis la culoare. Drept urmare, sunt notoriu de prost să recunoască oamenii cu pielea mai închisă. Într-un caz, 28 de membri ai Congresului, în mod disproporționat oameni de culoare, au fost corelați incorect cu imaginile de tip mugshot. Eșecul încercărilor de a corecta acest lucru a determinat unele companii, în special Microsoft, să nu mai vândă aceste sisteme către departamentele de poliție.

ChatGPT, Google's Bard și alți chatbot-uri bazați pe inteligență artificială sunt modele de limbaj autoregresive care utilizează învățarea profundă pentru a produce text. Această învățare este antrenată pe un set uriaș de date, care poate cuprinde tot ceea ce este postat pe internet într-o anumită perioadă de timp - un set de date plin de erori, dezinformare și, desigur, părtinire.

Numai la fel de bune ca datele pe care le primește

„Dacă îi dai acces la internet, acesta are în mod inerent orice părtinire există”, spune Paul Roetzer, fondator și CEO al The Marketing AI Institute. „Este doar o oglindă a umanității în multe feluri.”

Constructorii acestor sisteme sunt conștienți de acest lucru.

„În [ChatGPT creator] OpenAI, se spune că sentimentul negativ este mai strâns asociat cu numele femeilor afro-americane decât orice alt nume stabilit acolo”, spune Christopher Penn, co-fondator și șef de date la TrustInsights.ai. „Așadar, dacă aveți vreun fel de modelare complet automatizată a sentimentelor cutiei negre și judecați prenumele oamenilor, dacă Letitia obține un scor mai mic decât Laura, aveți o problemă. Întăriți aceste părtiniri.”

Documentele cu cele mai bune practici ale OpenAI mai spun: „De la informații inexacte halucinante, la rezultate ofensive, la părtinire și multe altele, modelele de limbaj pot să nu fie potrivite pentru fiecare caz de utilizare fără modificări semnificative.”

Ce trebuie să facă un marketer?

Atenuarea părtinirii este esențială pentru agenții de marketing care doresc să lucreze cu cele mai bune date posibile. Eliminarea acestuia va fi pentru totdeauna o țintă în mișcare, un scop de urmărit, dar nu neapărat de atins.

„Ceea ce ar trebui să se gândească specialiștii de marketing și companiile de martech este: „Cum aplicăm acest lucru pe datele de antrenament care intră, astfel încât modelul să aibă mai puține părtiniri pentru început pe care trebuie să le atenuăm mai târziu?””, spune Christopher Penn. „Nu puneți gunoiul, nu trebuie să filtrați gunoiul.”

Există instrumente care vă pot ajuta să faceți acest lucru. Iată cele mai cunoscute cinci:

  • What-If de la Google este un instrument open source care ajută la detectarea existenței părtinirii într-un model prin manipularea punctelor de date, generarea de diagrame și specificarea criteriilor pentru a testa dacă modificările au impact asupra rezultatului final.
  • AI Fairness 360 de la IBM este un set de instrumente open-source pentru a detecta și elimina părtinirea modelelor de învățare automată.
  • Fairlearn de la Microsoft conceput pentru a ajuta la navigarea compromisurilor între corectitudine și performanța modelului.
  • Local Interpretable Model-Agnostic Explications (LIME) creat de cercetătorul Marco Tulio Ribeiro permite utilizatorilor să manipuleze diferite componente ale unui model pentru a înțelege mai bine și pentru a putea indica sursa părtinirii dacă există una.
  • FairML de la MIT Julius Adebayo este o cutie de instrumente end-to-end pentru auditarea modelelor predictive prin cuantificarea semnificației relative a intrărilor modelului.

„Sunt buni când știi ce cauți”, spune Penn. „Sunt mai puțin bune când nu ești sigur ce este în cutie.”

Judecarea intrărilor este partea ușoară

De exemplu, spune el, cu AI Fairness 360, îi puteți da o serie de decizii de împrumut și o listă de clase protejate - vârstă, sex, rasă etc. Apoi poate identifica orice prejudecăți în datele de antrenament sau în model și poate suna o alarmă atunci când modelul începe să se deplaseze într-o direcție care este părtinitoare.

„Când faci generație, este mult mai greu să faci asta, mai ales dacă faci copie sau imagini”, spune Penn. „Instrumentele care există în acest moment sunt destinate în principal datelor tabelare dreptunghiulare cu rezultate clare împotriva cărora încercați să le atenuați.”

Sistemele care generează conținut, cum ar fi ChatGPT și Bard, sunt incredibil de intensive în calcul. Adăugarea de măsuri de protecție suplimentare împotriva părtinirii va avea un impact semnificativ asupra performanței acestora. Acest lucru se adaugă la sarcina deja dificilă de a le construi, așa că nu vă așteptați la o rezoluție curând.

Nu-mi permit să aștept

Din cauza riscului de marcă, agenții de marketing nu își permit să stea și să aștepte ca modelele să se repare singure. Atenuarea pe care trebuie să o facă pentru conținutul generat de inteligență artificială se întreabă constant ce ar putea merge prost. Cei mai buni oameni pe care să îi întrebi care provin din eforturile de diversitate, echitate și incluziune.

„Organizațiile acordă o mulțime de servicii inițiativelor DEI”, spune Penn, „dar aici este locul în care DEI poate străluci de fapt. [Aveți] echipa de diversitate... inspectați rezultatele modelelor și spuneți: „Nu este în regulă sau este în regulă”. Și apoi să fie integrat în procese, așa cum DEI și-a dat acest lucru ștampila de aprobare.”

Modul în care companiile definesc și atenuează părtinirea în toate aceste sisteme vor fi indicatori semnificativi ai culturii sale.

„Fiecare organizație va trebui să-și dezvolte propriile principii despre cum dezvoltă și utilizează această tehnologie”, spune Paul Roetzer. „Și nu știu cum se rezolvă altfel decât la acel nivel subiectiv de „asta este ceea ce considerăm că este părtinire și vom folosi sau nu vom folosi instrumente care permit acest lucru”.


Obțineți MarTech! Zilnic. Gratuit. În căsuța dvs. de e-mail.

Vezi termenii.



Povești înrudite

    Cum vă poate ajuta AI marketingul în acest moment
    Bard și ChatGPT vor îmbunătăți în cele din urmă experiența de căutare
    4 domenii de martech cu preocupări etice
    Experții AI de marketing de la MarTech de urmat
    Cum este setat ChatGPT să schimbe tehnologia de marketing

Nou pe MarTech

    Toyota lansează experiența AR pentru a sprijini 2023 Crown
    Iată de ce aveți nevoie de un flux de lucru DAM - și cum să îl mapați
    13 întrebări de adresat furnizorilor de platforme de experiență digitală în timpul demonstrației
    5 motive pentru care marketerii ar trebui să ia în considerare TikTok pentru B2B
    ChatGPT. GA4. Confidențialitate-în primul rând CX. Explorați totul la MarTech!