Denunciante de Facebook describe motivaciones contradictorias en el enfoque de la empresa hacia el contenido de noticias

Publicado: 2022-04-08

¿Facebook es malo para la sociedad y la empresa contribuye a sabiendas a la división y la angustia para maximizar el uso y las ganancias?

Esta es una pregunta clave que ha persistido durante los últimos años, especialmente desde las elecciones estadounidenses de 2016. Y ahora, tenemos una idea del propio pensamiento de Facebook sobre el tema: en las últimas dos semanas, The Wall Street Journal ha informado sobre una variedad de estudios internos y las respuestas a los mismos de los ejecutivos de Facebook, que fueron filtrados por un ex miembro del personal de Facebook que buscó exponer la inacción de la compañía para abordar fallas clave en su diseño.

CBS reveló anoche que ese ex empleado era Frances Haugen, un experto en diseño algorítmico que había trabajado en el equipo de Integridad Cívica de Facebook antes de que se disolviera a raíz de las elecciones estadounidenses de 2020. Según la información compartida por Haugen, Facebook ha evitado conscientemente tomar medidas más enérgicas para abordar los peores aspectos de su plataforma, debido a los impactos que tales movimientos podrían tener en el uso y, por lo tanto, en las ganancias.

Y aunque Facebook ha refutado las afirmaciones de Haugen, sus declaraciones se alinean con lo que han sugerido muchos informes anteriores, lo que subraya las preocupaciones clave sobre los impactos sociales del gigante social de Zuckerberg.

El argumento clave de Haugen es que Facebook ha pasado por alto o minimizado deliberadamente los hallazgos, según su propia investigación, a favor de mantener el uso y la participación de los usuarios.

Como explica Haugen:

“Lo que vi en Facebook una y otra vez fue que había conflictos de intereses entre lo que era bueno para el público y lo que era bueno para Facebook. Y Facebook, una y otra vez, optó por optimizar para sus propios intereses, como ganar más dinero”.

Lo cual, hasta cierto punto, tiene sentido: después de todo, Facebook es un negocio y, como tal, está impulsado por las ganancias y ofrece el máximo valor para sus accionistas.

El problema, en el caso de Facebook, es que opera la última red interconectada de humanos en la historia, acercándose a 3 mil millones de usuarios, muchos de los cuales usan la aplicación para mantenerse informados, en varios frentes, y recopilar información clave sobre las noticias. del día. Como tal, tiene un poder significativo para influir en la opinión.

Eso significa, como señala Haugen, que sus decisiones pueden tener un gran impacto.

Facebook gana más dinero cuando consumes más contenido. Las personas disfrutan involucrarse con cosas que provocan una reacción emocional. Y cuanto más se exponen a la ira, más interactúan y más consumen.

De hecho, entre los diversos hallazgos destacados en los archivos de Facebook de Haugen, los miles de documentos internos que esencialmente sacó de contrabando de la sede de Facebook son sugerencias de que Facebook tiene:

  • Pasó por alto la prevalencia y el impacto del discurso de odio en sus plataformas, debido al hecho de que dicho contenido también genera una mayor participación entre los usuarios.
  • Minimizó los impactos negativos de Instagram en los usuarios jóvenes, y los hallazgos muestran que la plataforma amplifica la imagen corporal negativa.
  • No pudo abordar las principales preocupaciones sobre el uso de Facebook en las regiones en desarrollo, en parte debido al análisis de costo/beneficio
  • No se pudo abordar la propagación del contenido antivacunas

Nuevamente, muchos de estos elementos han sido ampliamente informados en otros lugares, pero los archivos de Haugen brindan evidencia directa de que Facebook es realmente consciente de cada uno de estos aspectos y, en ocasiones, ha optado por no actuar o tomar medidas contrarias significativas, en gran parte debido a a un conflicto con sus intereses comerciales.

El equipo de RR. combatir estos elementos problemáticos.

Facebook señala varios cambios que ha realizado en Instagram para brindar más opciones de protección y control a los usuarios, mientras que Facebook también está trabajando para mejorar la clasificación de su algoritmo para limitar la exposición a contenido divisivo e inductor de angustia.

Pero al mismo tiempo, Facebook ha minimizado los impactos de esto en una escala más amplia.

Como vicepresidente de política y asuntos globales de Facebook, Nick Clegg ha señalado la sugerencia de que Facebook desempeñó un papel clave en la contribución a las protestas posteriores a las elecciones en el edificio del Capitolio.

“Creo que la afirmación [de que] el 6 de enero puede explicarse por las redes sociales, creo que es ridículo”.

La opinión de Clegg es que Facebook es solo una pequeña parte de un cambio social más amplio, y que simplemente no puede ser el problema central que conduzca a un conflicto tan importante en varias regiones.

Es imposible saber cuál es el impacto de Facebook a este respecto, pero claramente, según los archivos de Haugen, hay algunos contribuyentes clave allí.

Facebook gana más dinero cuando consumes más contenido. Las personas disfrutan involucrarse con cosas que provocan una reacción emocional. Y cuanto más se exponen a la ira, más interactúan y más consumen”.

La ira es la emoción que genera la mayor cantidad de respuestas, la mayor participación, y Haugen esencialmente sostiene que Facebook se está beneficiando de eso, al facilitar la difusión de contenido que inspira odio que luego, como subproducto, amplifica la división.

Cuando vivimos en un entorno de información que está lleno de contenido enojado, odioso y polarizador, erosiona nuestra confianza cívica, erosiona nuestra fe en los demás, erosiona nuestra capacidad de querer cuidarnos unos a otros, la versión de Facebook que existe. hoy está desgarrando nuestras sociedades y causando violencia étnica en todo el mundo.

Hay dos lados en esto, y ambos pueden ser igualmente correctos. Uno, como señala Haugen, es que Facebook tiene una motivación subyacente para facilitar la difusión de contenido que induce al odio, lo que genera una mayor participación entre sus usuarios, al mismo tiempo que exacerba la división social, lo que, a la escala de Facebook, puede tener un impacto significativo.

Por otro lado, como señala Facebook, no realiza dicha investigación en vano. Hacer la vista gorda a estos problemas por completo sería no realizar estos estudios en absoluto, y aunque es posible que Zuck and Co. no esté tomando tantas medidas como les gustaría a todas las partes, hay evidencia que sugiere que la compañía está trabajando para abordar estos preocupaciones, aunque de una manera más mesurada que, idealmente, también disminuya el impacto comercial.

La pregunta es, ¿debe tenerse en cuenta el 'impacto comercial' en tales decisiones consecuentes?

Una vez más, Facebook opera la red interconectada de personas más grande de la historia, por lo que no sabemos cuáles pueden ser los impactos completos de su intercambio influenciado por algoritmos, porque no tenemos otro ejemplo al que referirnos, no hay precedente para Facebook y su impacto más amplio.

De alguna manera, Facebook, en su escala e influencia, debería ser realmente una utilidad pública, lo que cambiaría las motivaciones de la empresa, como señala Haugen:

Nadie en Facebook es malévolo, pero los incentivos están desalineados, ¿verdad? Como, Facebook gana más dinero cuando consumes más contenido. Las personas disfrutan involucrarse con cosas que provocan una reacción emocional. Y cuanto más se exponen a la ira, más interactúan y más consumen.

En esencia, este es el problema principal: ahora tenemos una situación en la que uno de los vehículos clave para la distribución y difusión de información no está motivado por mantener a las personas informadas de manera confiable, sino por generar la mayor participación posible. Y la forma de hacerlo es incitar una respuesta emocional, siendo el odio y la ira algunos de los motivadores más poderosos para atraer a las personas a reaccionar.

Según una investigación, casi un tercio de los adultos de EE . UU . acceden regularmente a contenido de noticias en Facebook , lo que significa que al menos 86 millones de estadounidenses obtienen información directa sobre los últimos acontecimientos desde una plataforma que tiene una clara motivación para mostrarles lo más angustioso. tomas emocionalmente cargadas de cada tema.

Los editores de noticias también saben esto, al igual que los políticos; de hecho, según los archivos de Facebook, varios grupos políticos han cambiado a enfoques más partidistas y divisivos para apaciguar al algoritmo de Facebook.

Cuando considera la escala de alcance y el impacto que tiene la plataforma en dichos mensajes, está claro que Facebook tiene una influencia sobre cómo interactuamos.

Pero con motivaciones en conflicto y la necesidad de maximizar el compromiso frente a la creciente competencia, ¿podemos realmente esperar que Facebook cambie su enfoque por el bien común?