Этика ИИ вызывает озабоченность. Узнайте, как оставаться этичным
Опубликовано: 2022-04-28Искусственный интеллект (ИИ) становится повсеместным в нашей повседневной жизни.
Знаете ли вы об этом, ИИ встроен во многие технологии, которые вы используете на регулярной основе. Когда Netflix рекомендует шоу, которое может вам понравиться, или Google предлагает вам забронировать поездку онлайн из аэропорта, из которого вы обычно летите, задействован искусственный интеллект.
На самом деле, сегодня девяносто один процент предприятий хотят инвестировать в ИИ. Хотя ИИ может показаться чрезвычайно техническим, граничащим с научной фантастикой, в конечном итоге это всего лишь инструмент. И, как любой инструмент, его можно использовать во благо или во зло. Поэтому, поскольку ИИ берет на себя все более сложные задачи, важно обеспечить наличие этической основы для его правильного использования.
Давайте немного углубимся в ключевые проблемы, связанные с этикой ИИ, некоторые примеры этического ИИ и, самое главное, как обеспечить соблюдение этических норм при использовании ИИ в бизнес-контексте.
Что такое этика в ИИ?
Этика ИИ — это набор моральных принципов, которыми руководствуются при разработке и использовании технологий искусственного интеллекта. Поскольку ИИ делает то, что обычно требует человеческого интеллекта, он требует моральных принципов так же, как и принятия решений человеком. Без этических правил ИИ вероятность использования этой технологии для увековечения неправомерных действий высока.
Многие отрасли активно используют ИИ, включая финансы, здравоохранение, путешествия, обслуживание клиентов, социальные сети и транспорт. Благодаря своей постоянно растущей полезности во многих отраслях, технология ИИ имеет далеко идущие последствия для всех аспектов мира и поэтому нуждается в регулировании.
Теперь, конечно, требуются разные уровни управления в зависимости от отрасли и контекста, в котором развертывается ИИ. Робот-пылесос, который использует ИИ для определения плана дома, вряд ли радикально изменит мир, если он не будет использовать этические принципы. Беспилотный автомобиль, который должен распознавать пешеходов, или алгоритм, который определяет, какой тип людей, скорее всего, будет одобрен для получения кредита, может и будет оказывать глубокое влияние на общество, если этические принципы не будут реализованы.
Определив главные этические проблемы ИИ, обратившись к примерам этичного ИИ и рассмотрев передовой опыт этического использования ИИ, вы сможете убедиться, что ваша организация находится на правильном пути к использованию ИИ.
Каковы основные этические проблемы ИИ?
Как упоминалось ранее, основные этические проблемы сильно различаются в зависимости от отрасли, контекста и потенциальной величины воздействия. Но в целом самые большие этические проблемы, когда речь идет об искусственном интеллекте, — это предвзятость ИИ, опасения, что ИИ может заменить человеческие рабочие места, проблемы с конфиденциальностью и использование ИИ для обмана или манипулирования. Давайте пройдемся по ним более подробно.
Предубеждения в ИИ
Поскольку ИИ берет на себя сложные задачи и выполняет тяжелую работу, не забывайте, что люди запрограммировали и обучили ИИ выполнять эти задачи. И у людей есть предрассудки. Например, если ученые, занимающиеся данными преимущественно белых мужчин, собирают данные о преимущественно белых мужчинах, ИИ, который они разрабатывают, может воспроизвести их предубеждения.
Но на самом деле это не самый распространенный источник предвзятости ИИ. Что более распространено, так это то, что данные, используемые для обучения моделей ИИ, могут быть предвзятыми. Например, если собранные данные относятся только к статистическому большинству, они изначально предвзяты.
Ярким примером этого является недавнее исследование технологии распознавания объектов в беспилотных автомобилях, проведенное Технологическим институтом Джорджии. Выяснилось, что пешеходы с темной кожей получают удары примерно на 5% чаще, чем люди со светлой кожей. Они обнаружили, что данные, используемые для обучения модели ИИ, вероятно, были источником несправедливости: набор данных содержал примерно в 3,5 раза больше примеров людей со светлой кожей, поэтому модель ИИ могла лучше их распознавать. Эта, казалось бы, небольшая разница могла иметь смертельные последствия, когда речь шла о чем-то столь же потенциально опасном, как самоуправляемые автомобили, сбивающие людей.
Положительным моментом в моделях ИИ и машинного обучения (ML) является то, что набор данных, на котором они обучаются, может быть изменен, и, приложив достаточные усилия, они могут стать в значительной степени беспристрастными. Напротив, невозможно позволить людям принимать абсолютно беспристрастные решения в больших масштабах.
ИИ заменяет рабочие места
Почти каждое технологическое новшество в истории обвиняли в замещении рабочих мест, и до сих пор этого никогда не происходило. Каким бы продвинутым ни казался ИИ, в ближайшее время ИИ не заменит людей или их работу.
Еще в 1970-х годах были введены банкоматы (банкоматы), и люди опасались массовой безработицы банковских служащих. Реальность была прямо противоположной. Поскольку теперь для работы отделения банка требовалось меньше кассиров, банки смогли увеличить количество отделений и количество рабочих мест кассиров в целом. И они могли делать это за меньшие деньги, потому что банкоматы выполняли простые повседневные задачи, такие как обработка чеков и снятие наличных.
Это отражено в том, что сейчас происходит с ИИ и его приложениями. Например, когда ИИ впервые был представлен для понимания и имитации человеческой речи. Люди запаниковали, когда чат-боты и интеллектуальные виртуальные помощники (IVA) заменили агентов по обслуживанию клиентов. Реальность такова, что автоматизация на основе ИИ может быть чрезвычайно полезной, но вряд ли ИИ действительно заменит человека.
Точно так же банкоматы выполняли рутинные задачи, не требующие вмешательства человека, чат-боты и IVA на основе ИИ могут выполнять простые повторяющиеся запросы и даже понимать вопросы на естественном языке, используя обработку естественного языка, чтобы предоставлять полезные, контекстные ответы.
Но самые сложные запросы по-прежнему требуют вмешательства человека. Автоматизация на базе ИИ может быть в чем-то ограничена, но ее влияние может быть огромным. Виртуальные агенты на основе ИИ снижают плату за обслуживание клиентов до 30%, а чат-боты могут обрабатывать до 80% рутинных задач и вопросов клиентов.
Будущее ИИ — это то, в котором люди и боты на базе ИИ работают вместе, при этом боты решают простые задачи, а люди сосредотачиваются на более сложных вопросах.
ИИ и конфиденциальность
Возможно, наиболее обоснованной проблемой этики в ИИ является конфиденциальность. Конфиденциальность признана одним из основных прав человека в Декларации прав человека ООН, и различные приложения ИИ могут представлять для нее реальную угрозу. Такие технологии, как камеры наблюдения, смартфоны и Интернет, упростили сбор личных данных. Когда компании не прозрачны в отношении того, почему и как данные собираются и хранятся, конфиденциальность находится под угрозой.
Распознавание лиц, например, вызывает споры по многим причинам. Одна из причин заключается в том, как эта технология распознает и сохраняет изображения. Мониторинг без явного согласия — одно из приложений ИИ, которое многие считают неэтичным. Фактически, Европейская комиссия запретила технологию распознавания лиц в общественных местах до тех пор, пока не будет введен адекватный этический контроль.
Проблема создания этических правил конфиденциальности в отношении ИИ заключается в том, что люди, как правило, готовы отказаться от некоторой личной информации, чтобы получить определенный уровень персонализации. Это большая тенденция в обслуживании клиентов и маркетинге по уважительной причине.
80%
потребителей с большей вероятностью совершат покупку, когда бренды предлагают персонализированный опыт.
Источник: Эпсилон
Примерами могут служить продуктовые магазины или аптеки, предлагающие купоны на основе прошлых покупок, или туристические компании, предлагающие скидки в зависимости от местонахождения потребителей.
Эти личные данные помогают ИИ предоставлять своевременный персонализированный контент, который хотят потребители. Тем не менее, без надлежащих протоколов очистки данных существует риск того, что эти данные будут обработаны и проданы сторонним компаниям и использованы в непреднамеренных целях.
Например, печально известный скандал с Cambridge-Analytica был связан с политической консалтинговой фирмой, которая работала на кампанию Трампа и продавала личные данные десятков миллионов пользователей Facebook. Эти сторонние компании также более уязвимы для кибератак и утечек данных, а это означает, что ваша личная информация может еще больше попасть в чужие руки.
По иронии судьбы, ИИ — отличное решение для защиты данных. Возможности самообучения ИИ означают, что программы на основе ИИ могут обнаруживать вредоносные вирусы или шаблоны, которые часто приводят к нарушениям безопасности. Это означает, что, внедряя ИИ, организации могут заблаговременно обнаруживать попытки утечки данных или другие типы атак на безопасность данных до того, как информация может быть украдена.

Обман и манипуляция с использованием ИИ
Использование ИИ для распространения дезинформации — еще одна серьезная этическая проблема. Модели машинного обучения могут легко генерировать фактически неверный текст, а это означает, что поддельные новостные статьи или поддельные сводки могут быть созданы за считанные секунды и распространены по тем же каналам, что и настоящие новостные статьи.
Это хорошо иллюстрируется тем, насколько сильно социальные сети повлияли на распространение фейковых новостей во время выборов 2016 года, поставив Facebook в центр внимания этического ИИ. Исследование, проведенное в 2017 году исследователями из Нью-Йоркского университета и Стэнфорда, показывает, что самыми популярными фейковыми новостями на Facebook делились чаще, чем самыми популярными новостями из мейнстрима. Тот факт, что эта дезинформация могла беспрепятственно распространяться через Facebook, что потенциально может повлиять на результаты чего-то столь важного, как президентские выборы, вызывает крайнюю тревогу.
ИИ также способен создавать ложные аудиозаписи, а также синтетические изображения и видео, где кто-то в существующем изображении или видео заменяется кем-то другим. Эти ложные сходства, известные как «дипфейки», могут быть чрезвычайно убедительными.
Когда ИИ используется для преднамеренного обмана таким образом, он возлагает на отдельных лиц ответственность за различение того, что реально, а что нет, и то ли из-за отсутствия навыков, то ли из-за отсутствия воли, мы видели, что люди не всегда могут определить, что является правдой. настоящий или нет.
Как этично использовать ИИ
Со всеми проблемами, которые приносит ИИ, вам может быть интересно, как снизить риски при внедрении ИИ в качестве решения в вашей организации. К счастью, есть некоторые рекомендации по этичному использованию ИИ в бизнес-контексте.
Образование и осведомленность об этике ИИ
Начните с обучения себя и своих коллег тому, что может делать ИИ, его проблемам и ограничениям. Вместо того, чтобы пугать людей или полностью игнорировать возможность неэтичного использования ИИ, убедитесь, что все понимают риски и знают, как их снизить, — это первый шаг в правильном направлении.
Следующим шагом является создание набора этических принципов, которых должна придерживаться ваша организация. Наконец, поскольку этику в ИИ трудно измерить, регулярно проверяйте, достигаются ли цели и соблюдаются ли процессы.
Используйте подход к искусственному интеллекту, ориентированный на человека
Использование подхода, ориентированного на человека, означает контроль предвзятости. Во-первых, убедитесь, что ваши данные не предвзяты (как в примере с беспилотным автомобилем, упомянутом выше). Во-вторых, сделать его инклюзивным. В США демографический состав программистов составляет примерно 64% мужчин и 62% белых.
Это означает, что люди, которые разрабатывают алгоритмы, формирующие то, как работает общество, не обязательно представляют разнообразие этого общества. Применяя инклюзивный подход к найму и расширению разнообразия команд, работающих над технологией ИИ, вы можете быть уверены, что создаваемый вами ИИ отражает мир, для которого он был создан.
Приоритет прозрачности и безопасности во всех случаях использования ИИ
Когда ИИ участвует в сборе или хранении данных, крайне важно информировать ваших пользователей или клиентов о том, как хранятся их данные, для чего они используются и какие преимущества они получают от обмена этими данными. Эта прозрачность необходима для построения доверительных отношений с вашими клиентами. Таким образом, соблюдение этических принципов ИИ можно рассматривать как создание положительного отношения к вашему бизнесу, а не ограничительное регулирование.
Примеры этического ИИ
Хотя искусственный интеллект является относительно новой областью, технологические гиганты, работающие в этой области уже несколько десятилетий, и объективные третьи стороны, признающие необходимость вмешательства и регулирования, создали основу, с которой вы можете согласовать политику своей организации.
Фреймворки, которые вдохновляют на этический ИИ
Несколько беспристрастных третьих лиц признали необходимость создания руководящих принципов этического использования ИИ и обеспечения того, чтобы его использование приносило пользу обществу.
Организация экономического сотрудничества и развития (ОЭСР) — международная организация, работающая над созданием лучших стратегий для лучшей жизни. Они разработали Принципы искусственного интеллекта ОЭСР, которые способствуют использованию инновационного, надежного ИИ, уважающего права человека и демократические ценности.
Организация Объединенных Наций (ООН) также разработала «Концепцию этического ИИ», в которой обсуждается, что ИИ является мощным инструментом, который можно использовать во благо, но есть риск, что его будут использовать способом, несовместимым с ценностями ООН и противоречащим им. Он предполагает, что необходимо создать набор руководящих принципов, политик или этического кодекса, чтобы гарантировать, что использование ИИ в ООН соответствует ее этическим ценностям.
Бизнес и этический ИИ
Помимо объективных третьих сторон, крупнейшие лидеры в этой области также разработали свои собственные рекомендации по этичному использованию ИИ.
Google, например, разработал Принципы искусственного интеллекта, которые образуют этическую хартию, регулирующую разработку и использование искусственного интеллекта в своих исследованиях и продуктах. И Microsoft не только создала Принципы ответственного ИИ, которые они применяют на практике для руководства всеми инновациями в области ИИ в Microsoft, но также создала бизнес-школу ИИ, чтобы помочь другим компаниям создавать свои собственные политики поддержки ИИ.
Но вам не обязательно жить в Силиконовой долине, чтобы выступать за этический ИИ. Некоторые более мелкие компании, занимающиеся искусственным интеллектом, последовали их примеру и начинают включать этику в свои основные ценности.
Существуют также способы, с помощью которых коммерческие предприятия могут быть сертифицированы как этичные и устойчивые, например, сертификация B Corp, которая подтверждает, что организация использует бизнес как силу добра.
Несколько коммерческих ИИ-компаний присоединились к стандартам B Corp, показывая, что ИИ всегда является новой тенденцией. Хотя этот тип аккредитации не является исключительным для компаний, занимающихся искусственным интеллектом, он свидетельствует о стремлении действовать этично, и все больше технологических компаний могут и должны получать сертификацию.
ИИ во благо
При обсуждении этики в ИИ основное внимание уделяется возможным негативным вариантам использования и последствиям ИИ, но ИИ действительно приносит много пользы. Важно помнить, что технология искусственного интеллекта — это не только потенциальная проблема, но и решение многих крупнейших мировых проблем.
Существует искусственный интеллект для прогнозирования последствий изменения климата и предложения мер по его устранению; роботы-хирурги могут выполнять или помогать в операциях, которые требуют большей точности, чем может выдержать человек.
Сельскохозяйственные технологии с использованием искусственного интеллекта повышают урожайность сельскохозяйственных культур и сокращают потери урожая. Существуют даже некоммерческие организации, такие как AI for Good, которые занимаются исключительно тем, чтобы сделать ИИ силой с глобальным влиянием. И как бы естественно это ни казалось, ИИ упрощает выполнение простых повседневных задач, таких как навигация по пробкам или запрос Siri о погоде.
ИИ становится лучше с правильной этикой
Искусственный интеллект стал мощным инструментом, вплетенным в вашу повседневную жизнь. Почти все ваши сервисы и устройства используют ИИ, чтобы сделать вашу жизнь проще или эффективнее. И хотя злонамеренное использование ИИ, конечно же, возможно, подавляющее большинство компаний придерживаются этических принципов для смягчения негативных последствий, где это возможно.
При соблюдении передового опыта ИИ может улучшить практически все отрасли, от здравоохранения до образования и не только. Люди, создающие эти модели ИИ, должны помнить об этике и постоянно задаваться вопросом, как то, что они создают, может принести пользу обществу в целом.
Когда вы думаете об ИИ как о способе масштабирования человеческого интеллекта, а не как о его замене, он не кажется таким уж сложным или пугающим. И с правильной этической основой легко увидеть, как это изменит мир к лучшему.
Интегрируйте искусственный интеллект в свои повседневные функции и автоматизируйте задачи с помощью программного обеспечения искусственного интеллекта.