Как предвзятость в ИИ может повредить маркетинговым данным и что с этим делать
Опубликовано: 2023-02-23Алгоритмы лежат в основе маркетинга и маркетинговых технологий. Они используются для анализа данных, сбора данных, сегментации аудитории и многого другого. Это потому, что они лежат в основе искусственного интеллекта, который на них построен. Маркетологи полагаются на системы искусственного интеллекта для предоставления нейтральных и надежных данных. Если это не так, это может направить ваши маркетинговые усилия в ложное русло.
Нам нравится думать об алгоритмах как о наборах правил без предубеждений или намерений. Сами по себе они именно такие. У них нет мнений... Но эти правила построены на предположениях и ценностях их создателя. Это один из способов предвзятости проникнуть в ИИ. Другой и, возможно, более важный способ — через данные, на которых он обучается.
Копай глубже: Bard и ChatGPT в конечном итоге сделают поиск лучше
Например, системы распознавания лиц обучаются на наборах изображений преимущественно светлокожих людей. В результате они, как известно, плохо распознают темнокожих людей. В одном случае 28 членов Конгресса, непропорционально цветных людей, были неправильно сопоставлены с фотографиями. Неудачные попытки исправить это привели к тому, что некоторые компании, в первую очередь Microsoft, прекратили продажу этих систем полицейским управлениям.
ChatGPT, Google Bard и другие чат-боты на базе искусственного интеллекта представляют собой авторегрессивные языковые модели, использующие глубокое обучение для создания текста. Это обучение тренируется на огромном наборе данных, возможно, охватывающем все, что было размещено в Интернете в течение определенного периода времени — наборе данных, пронизанном ошибками, дезинформацией и, конечно же, предвзятостью.
Насколько хороши данные, которые он получает
«Если вы предоставите ему доступ к Интернету, он по своей сути будет иметь любую существующую предвзятость», — говорит Пол Ретцер, основатель и генеральный директор Института маркетингового ИИ. «Это просто зеркало человечества во многих отношениях».
Разработчики этих систем знают об этом.
«В раскрытии информации и заявлениях об отказе от ответственности [создателя ChatGPT] OpenAI говорится, что негативные настроения более тесно связаны с афроамериканскими женскими именами, чем с любым другим именем, указанным там», — говорит Кристофер Пенн, соучредитель и главный специалист по данным в TrustInsights.ai. «Поэтому, если у вас есть какое-то полностью автоматизированное моделирование настроений в виде черного ящика и вы оцениваете имена людей, если Летиция получает более низкий балл, чем Лора, у вас есть проблема. Вы усиливаете эти предубеждения».
В документах с передовым опытом OpenAI также говорится: «От галлюцинаций неточной информации до оскорбительных результатов, предвзятости и многого другого языковые модели могут не подходить для каждого случая использования без значительных изменений».
Что делать маркетологу?
Уменьшение предвзятости важно для маркетологов, которые хотят работать с самыми точными данными. Устранение его навсегда останется движущейся целью, целью, которую нужно преследовать, но не обязательно достигать.
«Маркетологи и компании, занимающиеся маркетинговыми технологиями, должны думать о том, как применить это к поступающим обучающим данным, чтобы у модели было меньше смещений, с которыми нам придется справляться позже?», — говорит Кристофер Пенн. «Не кладите мусор, вам не нужно фильтровать мусор».
Есть инструменты, которые могут помочь вам сделать это. Вот пять самых известных из них:
- What-If от Google — это инструмент с открытым исходным кодом, помогающий обнаруживать наличие смещения в модели путем манипулирования точками данных, создания графиков и указания критериев для проверки того, влияют ли изменения на конечный результат.
- AI Fairness 360 от IBM — это набор инструментов с открытым исходным кодом для обнаружения и устранения предвзятости в моделях машинного обучения.
- Fairlearn от Microsoft, призванный помочь найти компромисс между объективностью и производительностью модели.
- Локальные интерпретируемые модельно-независимые объяснения (LIME), созданные исследователем Марко Тулио Рибейро. позволяет пользователям манипулировать различными компонентами модели, чтобы лучше понять и указать источник смещения, если таковой существует.
- FairML от Джулиуса Адебайо из Массачусетского технологического института — это комплексный набор инструментов для аудита прогностических моделей путем количественной оценки относительной значимости входных данных модели.
«Они хороши, когда вы знаете, что ищете, — говорит Пенн. «Они менее хороши, когда вы не уверены, что в коробке».
Оценка входных данных — это легкая часть
Например, по его словам, с AI Fairness 360 вы можете дать ему ряд решений о кредите и список защищенных классов — возраст, пол, раса и так далее. Затем он может определить любые отклонения в обучающих данных или в модели и подавать сигнал тревоги, когда модель начинает дрейфовать в направлении, которое является смещенным.
«Когда вы занимаетесь генерацией, сделать это намного сложнее, особенно если вы делаете копии или изображения», — говорит Пенн. «Существующие сейчас инструменты в основном предназначены для прямоугольных табличных данных с четкими результатами, которые вы пытаетесь смягчить».
Системы, генерирующие контент, такие как ChatGPT и Bard, невероятно требовательны к вычислительным ресурсам. Добавление дополнительных мер защиты от предвзятости существенно повлияет на их эффективность. Это усложняет и без того сложную задачу их создания, так что не ждите решения в ближайшее время.
Не могу позволить себе ждать
Из-за рисков, связанных с брендом, маркетологи не могут позволить себе сидеть и ждать, пока модели исправятся сами. Меры по смягчению последствий, которые им необходимо предпринимать для контента, созданного ИИ, постоянно спрашивают, что может пойти не так. Об этом лучше всего просить людей, стремящихся к разнообразию, равенству и включению.

«Организации много говорят об инициативах DEI на словах, — говорит Пенн, — но именно здесь DEI действительно может проявить себя. [Создайте] команду по разнообразию… проверьте результаты моделей и скажите: «Это не нормально или это нормально». А затем пусть это будет встроено в процессы, как это одобрил DEI».
То, как компании определяют предвзятость во всех этих системах и смягчают ее, будет важным маркером ее культуры.
«Каждой организации придется разработать свои собственные принципы разработки и использования этой технологии», — говорит Пол Ретцер. «И я не знаю, как еще это решается, кроме как на этом субъективном уровне: «Это то, что мы считаем предвзятостью, и мы будем или не будем использовать инструменты, которые позволяют этому случиться».
Получите МарТех! Ежедневно. Бесплатно. В вашем почтовом ящике.
См. условия.

Похожие истории
Новое на МарТех