Comment les biais dans l'IA peuvent endommager les données marketing et ce que vous pouvez faire à ce sujet
Publié: 2023-02-23Les algorithmes sont au cœur du marketing et de la martech. Ils sont utilisés pour l'analyse de données, la collecte de données, la segmentation d'audience et bien plus encore. C'est parce qu'ils sont au cœur de l'intelligence artificielle qui s'appuie sur eux. Les spécialistes du marketing s'appuient sur les systèmes d'IA pour fournir des données neutres et fiables. Si ce n'est pas le cas, cela peut détourner vos efforts de marketing.
Nous aimons considérer les algorithmes comme des ensembles de règles sans parti pris ni intention. En eux-mêmes, c'est exactement ce qu'ils sont. Ils n'ont pas d'opinions. Mais ces règles sont construites sur les suppositions et les valeurs de leur créateur. C'est une façon dont les biais pénètrent dans l'IA. L'autre moyen, et peut-être le plus important, consiste à utiliser les données sur lesquelles il est formé.
Creusez plus profondément : Bard et ChatGPT amélioreront l'expérience de recherche
Par exemple, les systèmes de reconnaissance faciale sont formés sur des ensembles d'images de personnes principalement à la peau plus claire. En conséquence, ils sont notoirement mauvais pour reconnaître les personnes à la peau plus foncée. Dans un cas, 28 membres du Congrès, disproportionnellement des personnes de couleur, ont été incorrectement appariés avec des images de mugshot. L'échec des tentatives pour corriger cela a conduit certaines entreprises, notamment Microsoft, à cesser de vendre ces systèmes aux services de police.
ChatGPT, Google's Bard et d'autres chatbots alimentés par l'IA sont des modèles de langage autorégressifs utilisant l'apprentissage en profondeur pour produire du texte. Cet apprentissage est formé sur un énorme ensemble de données, englobant éventuellement tout ce qui est publié sur Internet pendant une période donnée - un ensemble de données truffé d'erreurs, de désinformation et, bien sûr, de biais.
Aussi bon que les données qu'il obtient
"Si vous lui donnez accès à Internet, il a intrinsèquement tout parti pris", déclare Paul Roetzer, fondateur et PDG de The Marketing AI Institute. "C'est juste un miroir sur l'humanité à bien des égards."
Les constructeurs de ces systèmes en sont conscients.
"Dans [le créateur de ChatGPT], les divulgations et les clauses de non-responsabilité d'OpenAI indiquent que le sentiment négatif est plus étroitement associé aux noms féminins afro-américains qu'à tout autre nom défini ici", déclare Christopher Penn, co-fondateur et scientifique en chef des données chez TrustInsights.ai. "Donc, si vous avez une sorte de modèle de sentiment de boîte noire entièrement automatisé et que vous jugez les prénoms des gens, si Letitia obtient un score inférieur à Laura, vous avez un problème. Vous renforcez ces préjugés.
Les documents sur les meilleures pratiques d'OpenAI indiquent également : "Des informations inexactes hallucinantes aux sorties offensantes, en passant par les biais, et bien plus encore, les modèles de langage peuvent ne pas convenir à tous les cas d'utilisation sans modifications importantes."
Qu'est-ce qu'un marketeur doit faire ?
L'atténuation des biais est essentielle pour les spécialistes du marketing qui souhaitent travailler avec les meilleures données possibles. L'éliminer sera à jamais une cible mouvante, un objectif à poursuivre mais pas nécessairement à atteindre.
"Ce que les spécialistes du marketing et les entreprises de martech devraient penser, c'est:" Comment appliquons-nous cela aux données de formation qui entrent afin que le modèle ait moins de biais pour commencer que nous devrons atténuer plus tard? ", déclare Christopher Penn. "Ne mettez pas de déchets, vous n'avez pas à filtrer les déchets."
Il existe des outils qui peuvent vous aider à le faire. Voici les cinq plus connus :
- What-If de Google est un outil open source qui aide à détecter l'existence d'un biais dans un modèle en manipulant des points de données, en générant des tracés et en spécifiant des critères pour tester si les changements ont un impact sur le résultat final.
- AI Fairness 360 d'IBM est une boîte à outils open source pour détecter et éliminer les biais dans les modèles d'apprentissage automatique.
- Fair-learn de Microsoft conçu pour vous aider à trouver des compromis entre l'équité et les performances du modèle.
- Local Interpretable Model-Agnostic Explanations (LIME) créé par le chercheur Marco Tulio Ribeiro permet aux utilisateurs de manipuler différents composants d'un modèle pour mieux comprendre et être en mesure de signaler la source de biais s'il en existe une.
- FairML de Julius Adebayo du MIT est une boîte à outils de bout en bout pour auditer des modèles prédictifs en quantifiant l'importance relative des entrées du modèle.
"Ils sont bons quand vous savez ce que vous cherchez", dit Penn. "Ils sont moins bons quand vous n'êtes pas sûr de ce qu'il y a dans la boîte."
Juger les entrées est la partie la plus facile
Par exemple, dit-il, avec AI Fairness 360, vous pouvez lui donner une série de décisions de prêt et une liste de classes protégées - âge, sexe, race, etc. Il peut ensuite identifier tout biais dans les données d'apprentissage ou dans le modèle et déclencher une alarme lorsque le modèle commence à dériver dans une direction biaisée.
"Lorsque vous faites de la génération, c'est beaucoup plus difficile à faire, en particulier si vous faites de la copie ou de l'imagerie", déclare Penn. "Les outils qui existent actuellement sont principalement destinés aux données rectangulaires tabulaires avec des résultats clairs que vous essayez d'atténuer."
Les systèmes qui génèrent du contenu, comme ChatGPT et Bard, sont incroyablement gourmands en calcul. L'ajout de garanties supplémentaires contre les préjugés aura un impact significatif sur leur performance. Cela ajoute à la tâche déjà difficile de les construire, alors ne vous attendez pas à une résolution bientôt.
Je ne peux pas me permettre d'attendre
En raison du risque lié à la marque, les spécialistes du marketing ne peuvent pas se permettre de rester assis et d'attendre que les modèles se corrigent d'eux-mêmes. L'atténuation qu'ils doivent faire pour le contenu généré par l'IA demande constamment ce qui pourrait mal tourner. Les meilleures personnes à poser cette question sont issues des efforts de diversité, d'équité et d'inclusion.

"Les organisations donnent beaucoup de paroles aux initiatives DEI", déclare Penn, "mais c'est là que DEI peut réellement briller. [Demandez à] l'équipe de la diversité… d'inspecter les résultats des modèles et de dire : « Ce n'est pas OK ou c'est OK ». Et ensuite, cela doit être intégré dans les processus, comme DEI a donné son approbation à cela.
La façon dont les entreprises définissent et atténuent les préjugés dans tous ces systèmes seront des marqueurs importants de sa culture.
"Chaque organisation va devoir développer ses propres principes sur la façon dont elle développe et utilise cette technologie", déclare Paul Roetzer. "Et je ne sais pas comment cela est résolu autrement qu'à ce niveau subjectif de" c'est ce que nous considérons comme un biais et nous utiliserons ou non des outils qui permettent que cela se produise.
Obtenez MarTech ! Quotidien. Gratuit. Dans votre boîte de réception.
Voir conditions.

Histoires liées
Nouveau sur MarTech