Jak stronniczość sztucznej inteligencji może uszkodzić dane marketingowe i co możesz z tym zrobić
Opublikowany: 2023-02-23Algorytmy są sercem marketingu i martechu. Służą do analizy danych, zbierania danych, segmentacji odbiorców i wielu, wielu innych. To dlatego, że są sercem sztucznej inteligencji, która jest na nich zbudowana. Marketerzy polegają na systemach sztucznej inteligencji, które dostarczają neutralnych, wiarygodnych danych. Jeśli tak nie jest, może źle skierować Twoje działania marketingowe.
Lubimy myśleć o algorytmach jako o zbiorach reguł bez uprzedzeń i intencji. Same w sobie są dokładnie tym, czym są. Nie mają opinii. Ale te zasady są zbudowane na założeniach i wartościach ich twórcy. To jeden ze sposobów, w jaki uprzedzenia przedostają się do sztucznej inteligencji. Innym i być może ważniejszym sposobem są dane, na których jest szkolony.
Kop głębiej: Bard i ChatGPT ostatecznie poprawią jakość wyszukiwania
Na przykład systemy rozpoznawania twarzy są szkolone na zestawach obrazów głównie osób o jaśniejszej karnacji. W rezultacie notorycznie kiepsko rozpoznają osoby o ciemniejszej karnacji. W jednym przypadku 28 członków Kongresu, nieproporcjonalnie kolorowych, zostało nieprawidłowo dopasowanych do zdjęć policyjnych. Niepowodzenie prób naprawienia tego skłoniło niektóre firmy, w szczególności Microsoft, do zaprzestania sprzedaży tych systemów policji.
ChatGPT, Bard Google i inne chatboty oparte na sztucznej inteligencji to autoregresyjne modele językowe wykorzystujące głębokie uczenie się do tworzenia tekstu. Uczenie się odbywa się na ogromnym zbiorze danych, prawdopodobnie obejmującym wszystko, co zostało opublikowane w Internecie w danym okresie — zbiorze danych pełnym błędów, dezinformacji i oczywiście stronniczości.
Tylko tak dobre, jak dane, które dostaje
„Jeśli dasz mu dostęp do Internetu, z natury będzie miał wszelkie istniejące uprzedzenia” — mówi Paul Roetzer, założyciel i dyrektor generalny The Marketing AI Institute. „To po prostu zwierciadło ludzkości na wiele sposobów”.
Konstruktorzy tych systemów są tego świadomi.
„W ujawnieniach i zastrzeżeniach [twórcy ChatGPT] OpenAI mówią, że negatywne nastroje są ściślej związane z żeńskimi imionami Afroamerykanów niż jakiekolwiek inne imię tam zawarte” – mówi Christopher Penn, współzałożyciel i główny analityk danych w TrustInsights.ai. „Więc jeśli masz w pełni zautomatyzowane modelowanie nastrojów w czarnej skrzynce i oceniasz imiona ludzi, jeśli Letitia uzyska niższy wynik niż Laura, masz problem. Wzmacniasz te uprzedzenia”.
Dokumenty najlepszych praktyk OpenAI mówią również: „Od halucynacji niedokładnych informacji, przez obraźliwe wyniki, stronniczość i wiele więcej, modele językowe mogą nie być odpowiednie dla każdego przypadku użycia bez znaczących modyfikacji”.
Co ma robić marketer?
Łagodzenie stronniczości jest niezbędne dla marketerów, którzy chcą pracować z najlepszymi możliwymi danymi. Wyeliminowanie go na zawsze będzie ruchomym celem, celem, do którego należy dążyć, ale niekoniecznie go osiągnąć.
„To, o czym powinni pomyśleć marketerzy i firmy martech, brzmi:„ Jak zastosować to do wprowadzanych danych szkoleniowych, aby model miał mniej odchyleń na początku, które musimy później złagodzić? ”- mówi Christopher Penn. „Nie wrzucaj śmieci, nie musisz ich odfiltrowywać”.
Istnieją narzędzia, które mogą Ci w tym pomóc. Oto pięć najbardziej znanych:
- What-If od Google to narzędzie typu open source, które pomaga wykrywać błędy w modelu poprzez manipulowanie punktami danych, generowanie wykresów i określanie kryteriów testowania, czy zmiany mają wpływ na wynik końcowy.
- AI Fairness 360 firmy IBM to zestaw narzędzi typu open source do wykrywania i eliminowania błędów w modelach uczenia maszynowego.
- Fairlearn firmy Microsoft zaprojektowanych, aby pomóc w znalezieniu kompromisu między uczciwością a wydajnością modelu.
- Local Interpretable Model-Agnostic Explanations (LIME) stworzone przez badacza Marco Tulio Ribeiro pozwala użytkownikom manipulować różnymi składnikami modelu, aby lepiej zrozumieć i móc wskazać źródło błędu, jeśli taki istnieje.
- FairML autorstwa Juliusa Adebayo z MIT to kompleksowy zestaw narzędzi do audytowania modeli predykcyjnych poprzez ilościowe określanie względnego znaczenia danych wejściowych modelu.
„Są dobre, gdy wiesz, czego szukasz” — mówi Penn. „Są mniej dobre, gdy nie masz pewności, co jest w pudełku”.
Ocenianie danych wejściowych jest łatwą częścią
Na przykład, mówi, dzięki AI Fairness 360 możesz nadać mu serię decyzji kredytowych i listę chronionych klas – wiek, płeć, rasę itp. Następnie może zidentyfikować wszelkie odchylenia w danych treningowych lub w modelu i włączyć alarm, gdy model zacznie dryfować w kierunku, który jest obciążony.
„Kiedy tworzysz, jest to o wiele trudniejsze, zwłaszcza jeśli robisz kopie lub obrazy” — mówi Penn. „Narzędzia, które istnieją obecnie, są przeznaczone głównie do tabelarycznych prostokątnych danych z wyraźnymi wynikami, przed którymi próbujesz złagodzić”.
Systemy generujące treści, takie jak ChatGPT i Bard, wymagają niewiarygodnie dużej mocy obliczeniowej. Dodanie dodatkowych zabezpieczeń przed stronniczością będzie miało znaczący wpływ na ich wyniki. To zwiększa i tak już trudne zadanie ich budowania, więc nie spodziewaj się wkrótce żadnego rozwiązania.
Nie mogę sobie pozwolić na czekanie
Ze względu na ryzyko związane z marką marketerzy nie mogą sobie pozwolić na siedzenie i czekanie, aż modele same się naprawią. Łagodzenie, które muszą podejmować w przypadku treści generowanych przez sztuczną inteligencję, polega na ciągłym pytaniu, co może pójść nie tak. Najlepsi ludzie, o które można poprosić, pochodzą z wysiłków na rzecz różnorodności, równości i integracji.
„Organizacje składają wiele deklaracji na temat inicjatyw DEI”, mówi Penn, „ale tutaj DEI faktycznie może zabłysnąć. [Poproś] zespół ds. różnorodności… zbada wyniki modeli i powie: „To nie jest OK lub to jest OK”. A potem niech to zostanie wbudowane w procesy, tak jak DEI nadało temu pieczęć aprobaty”.

Sposób, w jaki firmy definiują i ograniczają uprzedzenia we wszystkich tych systemach, będzie znaczącym wyznacznikiem ich kultury.
„Każda organizacja będzie musiała opracować własne zasady dotyczące sposobu, w jaki rozwija i wykorzystuje tę technologię” — mówi Paul Roetzer. „I nie wiem, jak inaczej można to rozwiązać, niż na tym subiektywnym poziomie„ to jest to, co uważamy za stronniczość i będziemy lub nie będziemy używać narzędzi, które na to pozwolą”.
Zdobądź MarTech! Codziennie. Bezpłatny. W Twojej skrzynce odbiorczej.
Zobacz warunki.

Powiązane historie
Nowość w MarTechu