Sitemap Переключить меню

Как предвзятость в ИИ может повредить маркетинговым данным и что с этим делать

Опубликовано: 2023-02-23

Алгоритмы лежат в основе маркетинга и маркетинговых технологий. Они используются для анализа данных, сбора данных, сегментации аудитории и многого другого. Это потому, что они лежат в основе искусственного интеллекта, который на них построен. Маркетологи полагаются на системы искусственного интеллекта для предоставления нейтральных и надежных данных. Если это не так, это может направить ваши маркетинговые усилия в ложное русло.

Нам нравится думать об алгоритмах как о наборах правил без предубеждений или намерений. Сами по себе они именно такие. У них нет мнений... Но эти правила построены на предположениях и ценностях их создателя. Это один из способов предвзятости проникнуть в ИИ. Другой и, возможно, более важный способ — через данные, на которых он обучается.

Копай глубже: Bard и ChatGPT в конечном итоге сделают поиск лучше

Например, системы распознавания лиц обучаются на наборах изображений преимущественно светлокожих людей. В результате они, как известно, плохо распознают темнокожих людей. В одном случае 28 членов Конгресса, непропорционально цветных людей, были неправильно сопоставлены с фотографиями. Неудачные попытки исправить это привели к тому, что некоторые компании, в первую очередь Microsoft, прекратили продажу этих систем полицейским управлениям.

ChatGPT, Google Bard и другие чат-боты на базе искусственного интеллекта представляют собой авторегрессивные языковые модели, использующие глубокое обучение для создания текста. Это обучение тренируется на огромном наборе данных, возможно, охватывающем все, что было размещено в Интернете в течение определенного периода времени — наборе данных, пронизанном ошибками, дезинформацией и, конечно же, предвзятостью.

Насколько хороши данные, которые он получает

«Если вы предоставите ему доступ к Интернету, он по своей сути будет иметь любую существующую предвзятость», — говорит Пол Ретцер, основатель и генеральный директор Института маркетингового ИИ. «Это просто зеркало человечества во многих отношениях».

Разработчики этих систем знают об этом.

«В раскрытии информации и заявлениях об отказе от ответственности [создателя ChatGPT] OpenAI говорится, что негативные настроения более тесно связаны с афроамериканскими женскими именами, чем с любым другим именем, указанным там», — говорит Кристофер Пенн, соучредитель и главный специалист по данным в TrustInsights.ai. «Поэтому, если у вас есть какое-то полностью автоматизированное моделирование настроений в виде черного ящика и вы оцениваете имена людей, если Летиция получает более низкий балл, чем Лора, у вас есть проблема. Вы усиливаете эти предубеждения».

В документах с передовым опытом OpenAI также говорится: «От галлюцинаций неточной информации до оскорбительных результатов, предвзятости и многого другого языковые модели могут не подходить для каждого случая использования без значительных изменений».

Что делать маркетологу?

Уменьшение предвзятости важно для маркетологов, которые хотят работать с самыми точными данными. Устранение его навсегда останется движущейся целью, целью, которую нужно преследовать, но не обязательно достигать.

«Маркетологи и компании, занимающиеся маркетинговыми технологиями, должны думать о том, как применить это к поступающим обучающим данным, чтобы у модели было меньше смещений, с которыми нам придется справляться позже?», — говорит Кристофер Пенн. «Не кладите мусор, вам не нужно фильтровать мусор».

Есть инструменты, которые могут помочь вам сделать это. Вот пять самых известных из них:

  • What-If от Google — это инструмент с открытым исходным кодом, помогающий обнаруживать наличие смещения в модели путем манипулирования точками данных, создания графиков и указания критериев для проверки того, влияют ли изменения на конечный результат.
  • AI Fairness 360 от IBM — это набор инструментов с открытым исходным кодом для обнаружения и устранения предвзятости в моделях машинного обучения.
  • Fairlearn от Microsoft, призванный помочь найти компромисс между объективностью и производительностью модели.
  • Локальные интерпретируемые модельно-независимые объяснения (LIME), созданные исследователем Марко Тулио Рибейро. позволяет пользователям манипулировать различными компонентами модели, чтобы лучше понять и указать источник смещения, если таковой существует.
  • FairML от Джулиуса Адебайо из Массачусетского технологического института — это комплексный набор инструментов для аудита прогностических моделей путем количественной оценки относительной значимости входных данных модели.

«Они хороши, когда вы знаете, что ищете, — говорит Пенн. «Они менее хороши, когда вы не уверены, что в коробке».

Оценка входных данных — это легкая часть

Например, по его словам, с AI Fairness 360 вы можете дать ему ряд решений о кредите и список защищенных классов — возраст, пол, раса и так далее. Затем он может определить любые отклонения в обучающих данных или в модели и подавать сигнал тревоги, когда модель начинает дрейфовать в направлении, которое является смещенным.

«Когда вы занимаетесь генерацией, сделать это намного сложнее, особенно если вы делаете копии или изображения», — говорит Пенн. «Существующие сейчас инструменты в основном предназначены для прямоугольных табличных данных с четкими результатами, которые вы пытаетесь смягчить».

Системы, генерирующие контент, такие как ChatGPT и Bard, невероятно требовательны к вычислительным ресурсам. Добавление дополнительных мер защиты от предвзятости существенно повлияет на их эффективность. Это усложняет и без того сложную задачу их создания, так что не ждите решения в ближайшее время.

Не могу позволить себе ждать

Из-за рисков, связанных с брендом, маркетологи не могут позволить себе сидеть и ждать, пока модели исправятся сами. Меры по смягчению последствий, которые им необходимо предпринимать для контента, созданного ИИ, постоянно спрашивают, что может пойти не так. Об этом лучше всего просить людей, стремящихся к разнообразию, равенству и включению.

«Организации много говорят об инициативах DEI на словах, — говорит Пенн, — но именно здесь DEI действительно может проявить себя. [Создайте] команду по разнообразию… проверьте результаты моделей и скажите: «Это не нормально или это нормально». А затем пусть это будет встроено в процессы, как это одобрил DEI».

То, как компании определяют предвзятость во всех этих системах и смягчают ее, будет важным маркером ее культуры.

«Каждой организации придется разработать свои собственные принципы разработки и использования этой технологии», — говорит Пол Ретцер. «И я не знаю, как еще это решается, кроме как на этом субъективном уровне: «Это то, что мы считаем предвзятостью, и мы будем или не будем использовать инструменты, которые позволяют этому случиться».


Получите МарТех! Ежедневно. Бесплатно. В вашем почтовом ящике.

См. условия.



Похожие истории

    Как ИИ может помочь вашему маркетингу прямо сейчас
    Bard и ChatGPT в конечном итоге сделают поиск лучше
    4 области martech с этическими проблемами
    Маркетинговые эксперты по искусственному интеллекту MarTech будут следовать
    Как ChatGPT изменит маркетинговые технологии

Новое на МарТех

    Toyota запускает опыт дополненной реальности для поддержки Crown 2023 года
    Вот почему вам нужен рабочий процесс DAM — и как его отобразить
    13 вопросов, которые нужно задать поставщикам платформ цифрового опыта во время демонстрации
    5 причин, по которым маркетологам стоит рассмотреть TikTok для B2B
    ЧатGPT. ГА4. Конфиденциальность прежде всего CX. Исследуйте все это в MarTech!