Encontrar respuestas a los problemas identificados en las últimas filtraciones de Facebook será un proceso complejo

Publicado: 2022-04-08

Entonces, ¿qué hemos aprendido de la última divulgación de documentos e investigaciones internas de Facebook?

Bueno, no mucho, de verdad. La exingeniera de Facebook, Frances Haugen, publicó un conjunto inicial de informes internos de The Social Network el mes pasado, que describieron varias preocupaciones, incluidas sus dificultades para manejar el contenido antivacunas, los impactos dañinos de los cambios en su algoritmo y los efectos negativos para la salud mental de Instagram. sobre adolescentes.

Haugen publicó otro grupo de informes esta semana, a través de un esfuerzo coordinado con varias publicaciones importantes, que amplían estas afirmaciones iniciales y agregan más detalles sobre varios aspectos. Y todo es interesante, sin duda, todo arroja luz sobre lo que Facebook sabe sobre sus sistemas y cómo pueden sembrar división y angustia, y sus impactos sociales más amplios. Pero las revelaciones también subrayan en gran medida lo que ya sabíamos o sospechamos. Que la falta de compatibilidad con el idioma local de Facebook ha provocado un mayor daño en algunas regiones, que su red se utiliza para actividades delictivas, incluida la trata de personas, y que Facebook puede haber priorizado el crecimiento sobre la seguridad en algunas decisiones.

Todo esto se sabía en gran medida, pero el hecho de que Facebook también lo sepa, y que su propia investigación lo confirme, es significativo y conducirá a una gama completamente nueva de acciones contra la red social, en formas diversas.

Pero hay algunas otras notas valiosas que no conocíamos y que están ocultas entre las miles de páginas de información de investigación interna.

Un elemento clave, destacado por el periodista Alex Kantrowitz, se relaciona específicamente con el controvertido algoritmo News Feed y cómo Facebook ha trabajado para equilibrar las preocupaciones con la amplificación del contenido a través de varios experimentos.

La principal solución impulsada por Haugen en su discurso inicial ante el Congreso sobre la filtración de archivos de Facebook es que las redes sociales deberían verse obligadas a dejar de usar algoritmos basados ​​en participación por completo, a través de reformas a las leyes de la Sección 230, lo que, en opinión de Haugen, cambiaría los incentivos. para el compromiso de la plataforma social y reducir los daños causados ​​por sus sistemas.

Como explica Haugen :

“Si tuviéramos la supervisión adecuada, o si reformamos la [Sección] 230 para que Facebook sea responsable de las consecuencias de sus decisiones de clasificación intencionales, creo que se desharían de la clasificación basada en el compromiso”.

¿Pero eso funcionaría?

Según lo informado por Kantrowitz, Facebook realizó un experimento para averiguarlo:

“En febrero de 2018, un investigador de Facebook casi cerró el algoritmo de clasificación de News Feed para el 0,05% de los usuarios de Facebook. "¿Qué sucede si eliminamos la sección de noticias clasificadas?" preguntaron en un informe interno que resume el experimento. Sus hallazgos: sin un algoritmo de News Feed, la participación en Facebook cae significativamente, las personas ocultan un 50% más de publicaciones, el contenido de los grupos de Facebook se eleva a la cima y, sorprendentemente, Facebook gana aún más dinero con los usuarios que se desplazan por el News Feed.

El experimento mostró que sin el algoritmo para clasificar el contenido en función de varios factores diferentes, los usuarios pasaban más tiempo desplazándose para encontrar publicaciones relevantes, exponiéndolos a más anuncios, mientras que terminaban ocultando mucho más contenido, que, cuando estás mirando un feed cronológico, no tiene el beneficio continuo de reducir la probabilidad de que veas más de lo mismo en el futuro. El contenido de los grupos aumentó porque los usuarios están más involucrados en los grupos (es decir, cada vez que alguien publica una actualización en un grupo del que eres miembro, se te puede mostrar eso en tu feed), mientras que muchos más comentarios y me gusta de tus amigos lideran a las publicaciones de la página que aparecen en las fuentes de los usuarios.

Entonces, en general es negativo, y no es la solución que algunos han promocionado. Por supuesto, parte de esto también se basa en el comportamiento habitual, en el que, eventualmente, los usuarios probablemente dejarán de seguir ciertas páginas y personas que publican mucho, abandonarán ciertos grupos en los que no están tan interesados ​​y d aprender nuevas formas de controlar su alimentación. Pero eso es mucho esfuerzo manual por parte de los usuarios de Facebook, y el compromiso de Facebook se vería afectado por ello.

Puede ver por qué Facebook dudaría en tomar esta opción, mientras que la evidencia aquí no necesariamente apunta a que el feed sea menos divisivo como resultado. Y esto es antes de que tenga en cuenta que los estafadores y las páginas también aprenderían a jugar con este sistema.

Es una visión interesante de un elemento clave del debate más amplio sobre el impacto de Facebook, con el algoritmo a menudo identificado como lo que tiene el impacto más negativo, al centrarse en el contenido que genera compromiso (es decir, argumento) para mantener a las personas en la plataforma. a lo largo.

¿Es eso cierto? Quiero decir, claramente se puede argumentar que los sistemas de Facebook se optimizan para el contenido que probablemente haga que los usuarios publiquen, y la mejor manera de desencadenar una respuesta es a través de una reacción emocional, siendo la ira y la alegría los motivadores más fuertes. Parece probable, entonces, que los algoritmos de Facebook, ya sea intencionalmente o no, amplifiquen las publicaciones argumentativas, lo que puede impulsar la división. Pero la alternativa puede no ser mucho mejor.

Entonces, ¿cuál es la mejor manera de avanzar?

Ese es el elemento clave en el que debemos centrarnos ahora. Si bien estos conocimientos internos arrojan más luz sobre lo que Facebook sabe y sus impactos más amplios, también es importante considerar cuáles pueden ser los próximos pasos y cómo podemos implementar mejores protecciones y procesos para mejorar la participación en las redes sociales.

Lo que Facebook está tratando de hacer, como señaló el CEO de Facebook, Mark Zuckerberg, en respuesta a la filtración inicial de los archivos de Facebook.

Si quisiéramos ignorar la investigación, ¿por qué crearíamos un programa de investigación líder en la industria para comprender estos temas importantes en primer lugar? Si no nos preocupamos por combatir el contenido dañino, ¿por qué contrataríamos a tantas más personas dedicadas a esto que cualquier otra empresa en nuestro espacio, incluso las más grandes que nosotros?

Facebook claramente está investigando estos elementos. La preocupación entonces se reduce a dónde radican realmente sus motivaciones, pero también, según este experimento, qué se puede hacer para solucionarlo. Debido a que eliminar Facebook por completo no va a suceder, entonces, ¿cuáles son las formas en que podemos buscar usar estos conocimientos para construir un foro público más seguro, más abierto y menos divisivo?

Esa es una pregunta mucho más difícil de responder, y una preocupación más profundamente reflexiva que muchos de los informes hiperbólicos sobre que Facebook es el malo.