Поиск ответов на проблемы, выявленные в последних утечках Facebook, будет сложным процессом

Опубликовано: 2022-04-08

Итак, что мы узнали из последнего раскрытия внутренних документов и исследований Facebook?

Ну, не так много, правда. Бывший инженер Facebook Фрэнсис Хауген опубликовала первоначальный набор внутренних отчетов социальной сети в прошлом месяце, в котором изложены различные проблемы, в том числе борьба с антипрививочным контентом, вредное воздействие изменений алгоритма и негативное влияние Instagram на психическое здоровье. на подростков.

На этой неделе Хауген выпустил еще одну группу отчетов благодаря скоординированным усилиям с различными крупными публикациями, которые расширяют эти первоначальные заявления и добавляют больше деталей по различным аспектам. И все это, без сомнения, интересно, все это проливает свет на то, что Facebook знает о своих системах и о том, как они могут сеять разногласия и тревогу, а также об их более широком социальном влиянии. Но разоблачения также во многом подчеркивают то, что мы уже знали или подозревали. Что отсутствие поддержки Facebook на местных языках привело к увеличению вреда в некоторых регионах, что его сеть используется для преступной деятельности, включая торговлю людьми, и что Facebook, возможно, отдавал предпочтение росту, а не безопасности при принятии некоторых решений.

Все это было в значительной степени известно, но тот факт, что Facebook также знает, и что его собственное исследование подтверждает это, имеет большое значение и приведет к целому ряду новых действий, предпринятых против социальной сети в той или иной форме.

Но есть и другие ценные заметки, о которых мы не знали и которые скрыты среди тысяч страниц результатов внутренних исследований.

Один из ключевых элементов, отмеченный журналистом Алексом Кантровицем, касается, в частности, противоречивого алгоритма новостной ленты и того, как Facebook работал над уравновешиванием проблем с усилением контента с помощью различных экспериментов.

Основное решение, предложенное Хауген в ее первоначальном выступлении перед конгрессом по поводу утечки файлов Facebook, заключается в том, что социальные сети должны быть принуждены вообще отказаться от использования алгоритмов, основанных на взаимодействии, путем реформирования законов Раздела 230, которые, по мнению Хауген, изменят стимулы. для взаимодействия с социальной платформой и уменьшить вред, причиняемый их системами.

Как объяснил Хауген :

«Если бы у нас был соответствующий надзор или если бы мы реформировали [Раздел] 230, чтобы возложить на Facebook ответственность за последствия их преднамеренных решений о ранжировании, я думаю, они бы избавились от рейтинга, основанного на вовлеченности».

Но сработает ли это?

Как сообщает Kantrowitz, Facebook фактически провел эксперимент, чтобы выяснить:

«В феврале 2018 года исследователь Facebook практически отключил алгоритм ранжирования новостной ленты для 0,05% пользователей Facebook. «Что произойдет, если мы удалим рейтинговую новостную ленту?» — спросили они во внутреннем отчете, подводя итоги эксперимента. Их выводы: без алгоритма новостной ленты вовлеченность в Facebook значительно падает, люди скрывают на 50% больше сообщений, контент из групп Facebook поднимается вверх, и, что удивительно, Facebook зарабатывает еще больше денег от пользователей, прокручивающих новостную ленту.

Эксперимент показал, что без алгоритма ранжирования контента на основе различных факторов пользователи тратили больше времени на прокрутку, чтобы найти релевантные сообщения, показывая им больше рекламы, в то время как они в конечном итоге скрывали гораздо больше контента — что, если посмотреть на хронологический поток, не имеет постоянного преимущества снижения вероятности того, что вы увидите больше того же самого в будущем. Контент групп увеличился, потому что пользователи больше вовлечены в группы (т. е. каждый раз, когда кто-то публикует обновление в группе, членом которой вы являетесь, вы можете увидеть это в своей ленте), в то время как гораздо больше комментариев и лайков ваших друзей ведут на страницы сообщений, появляющихся в пользовательских каналах.

Так что в целом негатив, а не решение, которое некоторые рекламируют. Конечно, отчасти это также основано на привычном поведении, в том, что, в конце концов, пользователи, вероятно, перестанут следить за определенными страницами и людьми, которые много публикуют, они покинут определенные группы, которые им не так интересны, и они d научиться новым способам управления своим каналом. Но это требует больших ручных усилий со стороны пользователей Facebook, и из-за этого пострадает вовлеченность Facebook.

Вы можете понять, почему Facebook не решился бы воспользоваться этим вариантом, в то время как приведенные здесь доказательства не обязательно указывают на то, что в результате лента стала менее противоречивой. И это если не учитывать, что мошенники и Страницы тоже научатся обыгрывать эту систему.

Это интересный взгляд на ключевой элемент более широких дебатов о влиянии Facebook, причем алгоритм часто называют вещью, оказывающей наиболее негативное влияние, поскольку он фокусируется на содержании, которое вызывает вовлечение (т.е. спор), чтобы удерживать людей на платформе. дольше.

Это правда? Я имею в виду, что очевидно, что системы Facebook оптимизируют контент, который, вероятно, заставит пользователей публиковать сообщения, и лучший способ вызвать реакцию — это эмоциональная реакция, причем гнев и радость являются самыми сильными мотиваторами. Таким образом, кажется вероятным, что алгоритмы Facebook, преднамеренно или нет, действительно усиливают спорные сообщения, которые могут усилить разногласия. Но альтернатива может быть не намного лучше.

Итак, каков наилучший путь вперед?

Это ключевой элемент, на котором нам сейчас нужно сосредоточиться. Хотя эти внутренние выводы проливают больше света на то, что знает Facebook, и на его более широкое влияние, важно также подумать о том, какими могут быть следующие шаги и как мы можем внедрить более эффективные меры безопасности и процессы для улучшения взаимодействия с социальными сетями.

Что и пытается сделать Facebook, как отметил генеральный директор Facebook Марк Цукерберг в ответ на первоначальную утечку файлов Facebook.

« Если бы мы хотели игнорировать исследования, зачем нам создавать ведущую в отрасли исследовательскую программу, чтобы в первую очередь понять эти важные вопросы? Если бы мы не заботились о борьбе с вредоносным контентом, то зачем нам было бы нанимать для этого гораздо больше людей, чем любая другая компания в нашей сфере — даже более крупная, чем мы?

Facebook явно изучает эти элементы. Затем беспокойство сводится к тому, где на самом деле лежат его мотивы, а также, согласно этому эксперименту, к тому, что можно сделать, чтобы это исправить. Потому что полного удаления Facebook не произойдет — так как же мы можем использовать эти идеи для создания более безопасного, более открытого и менее разделяющего общественного форума?

На этот вопрос гораздо сложнее ответить, и он вызывает более глубокую озабоченность, чем многие преувеличенные репортажи о том, что Facebook является плохим парнем.