Wie Voreingenommenheit in der KI Marketingdaten beschädigen kann und was Sie dagegen tun können
Veröffentlicht: 2023-02-23Algorithmen sind das Herzstück von Marketing und Martech. Sie werden für die Datenanalyse, Datenerfassung, Zielgruppensegmentierung und vieles mehr verwendet. Denn sie sind das Herzstück der darauf aufbauenden künstlichen Intelligenz. Vermarkter verlassen sich auf KI-Systeme, um neutrale, zuverlässige Daten bereitzustellen. Wenn dies nicht der Fall ist, können Ihre Marketingbemühungen fehlgeleitet werden.
Wir stellen uns Algorithmen gerne als Regelwerke ohne Voreingenommenheit oder Absicht vor. An sich sind sie genau das. Sie haben keine Meinung. Aber diese Regeln basieren auf den Annahmen und Werten ihres Schöpfers. Das ist eine Möglichkeit, wie Vorurteile in die KI gelangen. Der andere und vielleicht wichtigere Weg führt über die Daten, auf denen trainiert wird.
Grab tiefer: Bard und ChatGPT werden letztendlich das Sucherlebnis verbessern
Beispielsweise werden Gesichtserkennungssysteme auf Bildserien von meist hellhäutigen Menschen trainiert. Infolgedessen sind sie notorisch schlecht darin, dunkelhäutige Menschen zu erkennen. In einem Fall wurden 28 Mitglieder des Kongresses, überproportional farbige Menschen, fälschlicherweise mit Fahndungsfotos abgeglichen. Das Scheitern von Versuchen, dies zu korrigieren, hat dazu geführt, dass einige Unternehmen, insbesondere Microsoft, den Verkauf dieser Systeme an Polizeidienststellen eingestellt haben.
ChatGPT, Google's Bard und andere KI-gestützte Chatbots sind autoregressive Sprachmodelle, die Deep Learning verwenden, um Text zu produzieren. Dieses Lernen wird anhand eines riesigen Datensatzes trainiert, der möglicherweise alles umfasst, was während eines bestimmten Zeitraums im Internet veröffentlicht wurde – ein Datensatz, der voller Fehler, Desinformationen und natürlich Voreingenommenheit ist.
Nur so gut wie die Daten, die es bekommt
„Wenn Sie ihm Zugang zum Internet gewähren, hat es von Natur aus eine Voreingenommenheit“, sagt Paul Roetzer, Gründer und CEO von The Marketing AI Institute. „Es ist in vielerlei Hinsicht nur ein Spiegel der Menschheit.“
Dessen sind sich die Erbauer dieser Anlagen bewusst.
„In den Offenlegungen und Haftungsausschlüssen von [ChatGPT-Erfinder] OpenAI heißt es, dass negative Stimmung enger mit afroamerikanischen Frauennamen verbunden ist als mit jedem anderen darin enthaltenen Namen“, sagt Christopher Penn, Mitbegründer und leitender Datenwissenschaftler bei TrustInsights.ai. „Wenn Sie also irgendeine Art von vollautomatischer Black-Box-Stimmungsmodellierung haben und die Vornamen von Personen beurteilen, haben Sie ein Problem, wenn Letitia eine niedrigere Punktzahl als Laura erhält. Sie verstärken diese Vorurteile.“
In den Best-Practice-Dokumenten von OpenAI heißt es auch: „Von der Halluzination ungenauer Informationen über anstößige Ausgaben bis hin zu Voreingenommenheit und vielem mehr sind Sprachmodelle ohne erhebliche Änderungen möglicherweise nicht für jeden Anwendungsfall geeignet.“
Was muss ein Vermarkter tun?
Die Minderung von Verzerrungen ist für Marketer, die mit den bestmöglichen Daten arbeiten möchten, von entscheidender Bedeutung. Es zu beseitigen, wird für immer ein bewegliches Ziel sein, ein Ziel, das verfolgt, aber nicht unbedingt erreicht werden muss.
„Vermarkter und Martech-Unternehmen sollten sich überlegen: ‚Wie wenden wir das auf die eingehenden Trainingsdaten an, damit das Modell zu Beginn weniger Verzerrungen aufweist, die wir später abschwächen müssen?'“, sagt Christopher Penn. „Werfen Sie keinen Müll hinein, Sie müssen keinen Müll herausfiltern.“
Es gibt Tools, die Ihnen dabei helfen können. Hier sind die fünf bekanntesten:
- What-If von Google ist ein Open-Source-Tool, mit dem das Vorhandensein von Verzerrungen in einem Modell erkannt werden kann, indem Datenpunkte manipuliert, Diagramme erstellt und Kriterien angegeben werden, um zu testen, ob sich Änderungen auf das Endergebnis auswirken.
- AI Fairness 360 von IBM ist ein Open-Source-Toolkit zum Erkennen und Eliminieren von Verzerrungen in maschinellen Lernmodellen.
- Fairlearn von Microsoft entwickelt, um bei der Navigation zwischen Kompromissen zwischen Fairness und Modellleistung zu helfen.
- Local Interpretable Model-Agnostic Explanations (LIME), erstellt vom Forscher Marco Tulio Ribeiro ermöglicht es Benutzern, verschiedene Komponenten eines Modells zu manipulieren, um die Quelle von Verzerrungen, falls vorhanden, besser zu verstehen und aufzuzeigen.
- FairML von Julius Adebayo vom MIT ist eine End-to-End-Toolbox zur Prüfung von Vorhersagemodellen durch Quantifizierung der relativen Bedeutung der Eingaben des Modells.
„Sie sind gut, wenn man weiß, wonach man sucht“, sagt Penn. „Sie sind weniger gut, wenn man sich nicht sicher ist, was in der Schachtel ist.“
Das Beurteilen von Eingaben ist der einfache Teil
Zum Beispiel, sagt er, können Sie mit AI Fairness 360 eine Reihe von Kreditentscheidungen und eine Liste geschützter Klassen geben – Alter, Geschlecht, Rasse usw. Es kann dann etwaige Verzerrungen in den Trainingsdaten oder im Modell erkennen und einen Alarm auslösen, wenn das Modell beginnt, in eine Richtung zu driften, die voreingenommen ist.
„Bei der Generierung ist das viel schwieriger, besonders wenn es um Text oder Bilder geht“, sagt Penn. „Die derzeit vorhandenen Tools sind hauptsächlich für tabellarische rechteckige Daten mit klaren Ergebnissen gedacht, die Sie abschwächen möchten.“
Die Systeme, die Inhalte generieren, wie ChatGPT und Bard, sind unglaublich rechenintensiv. Das Hinzufügen zusätzlicher Schutzmaßnahmen gegen Voreingenommenheit wird sich erheblich auf ihre Leistung auswirken. Dies trägt zu der ohnehin schon schwierigen Aufgabe bei, sie zu bauen, also erwarten Sie keine baldige Lösung.
Ich kann es mir nicht leisten zu warten
Aufgrund des Markenrisikos können es sich Marketingspezialisten nicht leisten, herumzusitzen und darauf zu warten, dass sich die Modelle von selbst reparieren. Die Minderung, die sie für KI-generierte Inhalte vornehmen müssen, fragt ständig, was schief gehen könnte. Die besten Leute, die man danach fragen kann, kommen aus den Bemühungen um Vielfalt, Gerechtigkeit und Inklusion.

„Organisationen geben viele Lippenbekenntnisse zu DEI-Initiativen ab“, sagt Penn, „aber hier kann DEI wirklich glänzen. [Lassen Sie das] Diversity-Team … die Ergebnisse der Modelle überprüfen und sagen: ‚Das ist nicht in Ordnung oder das ist in Ordnung.' Und das dann in die Prozesse einbauen, wie das DEI dem zugesprochen hat.“
Wie Unternehmen Voreingenommenheit in all diesen Systemen definieren und abmildern, wird ein wichtiger Hinweis auf ihre Kultur sein.
„Jede Organisation muss ihre eigenen Prinzipien entwickeln, wie sie diese Technologie entwickelt und einsetzt“, sagt Paul Roetzer. „Und ich weiß nicht, wie es anders gelöst werden kann als auf dieser subjektiven Ebene von ‚das ist, was wir für Voreingenommenheit halten, und wir werden oder werden nicht Tools verwenden, die dies zulassen.“
Holen Sie sich MarTech! Täglich. Frei. In Ihrem Posteingang.
Siehe Bedingungen.

Ähnliche Beiträge
Neu bei MarTech