Facebook choca con el gobierno de EE. UU. por desinformación sobre vacunas
Publicado: 2022-04-08Parece que Facebook puede estar en curso de colisión con el gobierno de los EE. UU. una vez más, esta vez por el papel que puede o no estar jugando en la amplificación de la información errónea sobre la vacuna COVID-19, que se ha identificado como un impedimento clave en el el camino de la nación hacia la recuperación de la pandemia.
El viernes, cuando se le preguntó directamente sobre la información errónea sobre las vacunas en Facebook, el presidente de los Estados Unidos, Joe Biden, respondió que "están matando gente" al permitir que se propaguen las teorías de conspiración sobre las vacunas.
Reportero: "Sobre la desinformación de Covid, ¿cuál es su mensaje para plataformas como Facebook?"
—Bloomberg Quicktake (@Quicktake) 16 de julio de 2021
Biden: "Están matando gente" pic.twitter.com/SsSksFzytZ
El comentario de Biden se produjo un día después de que la Casa Blanca también señalara que ha estado en contacto regular con las plataformas de redes sociales para asegurarse de que estén al tanto de las últimas narrativas que representan un peligro para la salud pública.
Según la secretaria de prensa de la Casa Blanca, Jen Psaki:
“Trabajamos para comprometernos con ellos para comprender mejor la aplicación de la política de la plataforma de redes sociales”.
En respuesta a los comentarios de Biden, Facebook pasó inmediatamente a la ofensiva, y un portavoz de Facebook le dijo a ABC News que " no se distraerá con acusaciones que no están respaldadas por los hechos".
Facebook siguió con una respuesta oficial el día de hoy, en una publicación titulada 'Más allá de señalar con el dedo'.
" En un momento en que los casos de COVID-19 están aumentando en Estados Unidos, la administración Biden ha optado por culpar a un puñado de empresas estadounidenses de redes sociales. Si bien las redes sociales desempeñan un papel importante en la sociedad, está claro que necesitamos un enfoque de toda la sociedad. para poner fin a esta pandemia. Y los hechos, no las acusaciones, deberían ayudar a informar ese esfuerzo. El hecho es que la aceptación de la vacuna entre los usuarios de Facebook en los EE. UU. ha aumentado. Estos y otros hechos cuentan una historia muy diferente a la promovida por la administración en los últimos dias."
La publicación continúa destacando varios estudios que muestran que los esfuerzos de Facebook para abordar la vacilación de la vacuna están funcionando y que, en todo caso, los usuarios de Facebook son menos resistentes al esfuerzo de la vacuna, en oposición a los comentarios de Biden.
Lo cual está en gran medida en línea con la postura más amplia de Facebook en los últimos tiempos: que, según la investigación académica, actualmente no existe un vínculo definitivo entre el aumento de las dudas sobre las vacunas y el intercambio en Facebook, ni, en un camino similar, existe una conexión directa entre el uso de Facebook y la polarización política. , a pesar de las reclamaciones en curso.
En los últimos meses, Facebook ha adoptado un enfoque más proactivo para descartar estas ideas, al explicar que el contenido polarizador y extremista en realidad es malo para su negocio, a pesar de la sugerencia de que se beneficia del compromiso relacionado con tales publicaciones.
Según Facebook:
"Todas las plataformas de redes sociales, incluidas, entre otras, las nuestras, reflejan lo que está sucediendo en la sociedad y lo que está en la mente de las personas en un momento dado. Esto incluye lo bueno, lo malo y lo feo. Por ejemplo, en las semanas previas a la Copa Mundial, las publicaciones sobre fútbol aumentarán naturalmente, no porque hayamos programado nuestros algoritmos para mostrar contenido sobre fútbol a las personas, sino porque eso es lo que la gente está pensando. Y al igual que la política, el fútbol toca una cuerda emocional profunda en las personas. Cómo reaccionan – lo bueno, lo malo y lo feo – se reflejará en las redes sociales”.
El vicepresidente de Asuntos Globales de Facebook, Nick Clegg, también adoptó un ángulo similar en marzo en su publicación acerca de que News Feed es una interacción entre las personas y la plataforma, lo que significa que la plataforma en sí no puede ser completamente culpable:
" El objetivo es asegurarse de que vea lo que le parece más significativo, no mantenerlo pegado a su teléfono inteligente durante horas y horas. Puede pensar en esto como un filtro de correo no deseado en su bandeja de entrada: ayuda a filtrar el contenido que ganó no encuentra significativo o relevante, y prioriza el contenido que encontrará".
Clegg señala además que Facebook reduce activamente la distribución de contenido sensacionalista y engañoso, así como publicaciones que sus socios independientes de verificación de datos consideran falsas.
"Por ejemplo, Facebook degrada el clickbait (títulos que son engañosos o exagerados), las afirmaciones de salud altamente sensacionalistas (como las que promueven "curas milagrosas") y el cebo de participación (publicaciones que buscan explícitamente que los usuarios interactúen con ellas)".
Clegg también dice que Facebook se comprometió de manera particularmente significativa con esto, en conflicto con sus propios intereses comerciales, al implementar un cambio en el algoritmo de News Feed en 2018, que le da más peso a las actualizaciones de sus amigos, familiares y grupos que usted. eres parte de, sobre el contenido de las páginas que sigues.
Por lo tanto, según Facebook, no se beneficia del contenido sensacionalista y las teorías de conspiración de centro-izquierda y, de hecho, se esfuerza por penalizarlas.
Sin embargo, a pesar de estas afirmaciones y las referencias a trabajos académicos y estudios internos no concluyentes, la evidencia más amplia no respalda la postura de Facebook.
A principios de esta semana, The New York Times informó que Facebook ha estado trabajando para cambiar la forma en que funciona su propia plataforma de análisis de datos, a fin de restringir el acceso público a las ideas que muestran que las publicaciones de extrema derecha y la información errónea funcionan mejor en la plataforma que otros. cobertura e informes equilibrados.

La controversia surge de este perfil de Twitter, creado por el reportero del Times Kevin Roose, que muestra una lista diaria de las diez publicaciones más interesantes en Facebook, según los datos de CrowdTangle.
Las publicaciones de enlaces de mayor rendimiento de las páginas de Facebook de EE. UU. en las últimas 24 horas son de:
- Los 10 principales de Facebook (@FacebooksTop10) 14 de julio de 2021
1. Para América
2. Boletín diario de Taunton
3. Ben Shapiro
4. Ben Shapiro
5. Sean Hannity
6. Nelly
7. Ben Shapiro
8. Newsmax
9. Dan Bongino
10. Ben Shapiro
Las páginas de extrema derecha siempre dominan el gráfico, razón por la cual Facebook ha tratado anteriormente de explicar que las métricas utilizadas para crear la lista son incorrectas y, por lo tanto, no son indicativas de la participación y la popularidad reales de la publicación.
Según el informe del NYT, Facebook en realidad había ido más allá internamente, y los empleados buscaban una forma de alterar los datos que se mostraban en CrowdTangle para evitar esa comparación.
Que no salió según lo planeado:
"Varios ejecutivos propusieron hacer públicos los datos de alcance en CrowdTangle, con la esperanza de que los reporteros citaran esos datos en lugar de los datos de interacción que pensaban que hacían quedar mal a Facebook. Pero [Brandon] Silverman, director ejecutivo de CrowdTangle, respondió en un correo electrónico que el equipo de CrowdTangle había Ya probé una característica para hacer eso y encontré problemas con ella. Un problema fue que las noticias falsas y engañosas también llegaron a la cima de esas listas".
Por lo tanto, no importa cómo Facebook buscaba darle la vuelta, este tipo de publicaciones seguían ganando terreno, lo que demuestra que, incluso con las actualizaciones y los procesos antes mencionados para limitar dicho intercambio, este sigue siendo el tipo de contenido que genera más participación, y por lo tanto, alcance en La Red Social.
Lo cual, se podría argumentar, es un problema humano, en lugar de uno de Facebook. Pero con 2.800 millones de usuarios, lo que le da más potencial para la amplificación de contenido que cualquier plataforma en la historia, Facebook debe asumir la responsabilidad del papel que desempeña dentro de este proceso y el papel que puede desempeñar potencialmente en la amplificación del impacto de tal en el caso de, digamos, una pandemia en la que infundir miedo a las vacunas podría terminar costándole al mundo un precio inconmensurable.
Parece bastante claro que Facebook juega un papel importante en esto. Y cuando también considera que alrededor del 70% de los estadounidenses ahora obtienen al menos algún contenido de noticias de Facebook, está claro que la aplicación se ha convertido en una fuente de verdad para muchos, que informa lo que hacen, incluidas sus posturas políticas, su comprensión cívica. Y sí, su punto de vista sobre los consejos de salud pública.
Diablos, incluso los terraplanistas han podido ganar tracción en la era moderna, subrayando el poder de los movimientos anticientíficos. Y de nuevo, si bien no se puede decir definitivamente que Facebook es responsable de eso, si alguien publica un video al azar de terraplanistas tratando de probar su teoría, probablemente obtendrá tracción debido a la naturaleza divisiva y sensacionalista de ese contenido, como este clip por ejemplo:

Videos como este atraen a creyentes y escépticos por igual, y aunque muchos de los comentarios son críticos, eso es todo, en el juicio algorítmico de Facebook, compromiso.
Por lo tanto, incluso sus comentarios burlones ayudarán a que dicho material gane tracción, y cuantas más personas comenten, más impulso obtendrán tales publicaciones.
8 de cada 10 personas podrían descartar tales teorías como basura total, pero 2 podrían aprovechar la oportunidad para profundizar más. Multiplique eso por el recuento de vistas que ven estos videos y eso es una gran influencia potencial en este frente que Facebook está facilitando.
Y definitivamente, este tipo de publicaciones ganan terreno. Un estudio realizado por el MIT en 2019 descubrió que las noticias falsas en Twitter tienen un 70 % más de probabilidades de ser retuiteadas que las verdaderas, mientras que investigaciones posteriores sobre las motivaciones detrás de dicha actividad han encontrado que la necesidad de pertenencia y comunidad también puede solidificar grupos. en torno a la mentira y la desinformación como respuesta psicológica.
También hay otro elemento clave dentro de esto: la naturaleza cambiante de la distribución de medios en sí.
Como explicó recientemente el psicólogo social de la Universidad de Yale, William J. Brady:
“Cuando publicas cosas [en las redes sociales], eres muy consciente de los comentarios que recibes, los comentarios sociales en términos de me gusta y acciones compartidas. Entonces, cuando la información errónea atrae más los impulsos sociales que la verdad, recibe más atención en línea, lo que significa que las personas se sienten recompensadas y alentadas por difundirla".
Ese cambio, al dar a cada persona su propia motivación personal para compartir cierto contenido, ha cambiado el paradigma para el alcance del contenido, lo que ha diluido la influencia de las publicaciones mismas a favor de los algoritmos, que, nuevamente, son impulsados por las personas y su necesidad de validación y respuesta.
Comparte una publicación que dice "las vacunas son seguras" y probablemente a nadie le importe, pero si comparte una que dice "las vacunas son peligrosas", la gente le prestará atención y recibirá todas las notificaciones de todos los "me gusta", "compartir" y comentarios, que luego activarán sus receptores de dopamina y lo harán sentir parte de algo más grande, algo más: que su voz es importante en el panorama más amplio.
Como tal, Facebook tiene algo de razón al señalar a la naturaleza humana como la culpable, y no a sus propios sistemas. Pero esta y otras plataformas le han dado a la gente el medio, proporcionan los medios para compartir, idean los incentivos para que sigan publicando.
Y cuanto más tiempo pasan las personas en Facebook, mejor para el negocio de Facebook.
No se puede argumentar que Facebook no se beneficia en este sentido, y como tal, a la empresa le interesa hacer la vista gorda y pretender que no hay ningún problema con sus sistemas y el papel que desempeña en la amplificación de tales movimientos. .
Pero lo hace, lo es, y el gobierno de los EE. UU. tiene razón al examinar más de cerca este elemento.