Facebook se heurte au gouvernement américain à propos de la désinformation sur les vaccins
Publié: 2022-04-08Il semble que Facebook soit à nouveau sur une trajectoire de collision avec le gouvernement américain, cette fois sur le rôle qu'il peut ou non jouer dans l'amplification de la désinformation sur le vaccin COVID-19, qui a été identifiée comme un obstacle clé dans le la voie de la nation pour se remettre de la pandémie.
Vendredi, interrogé directement sur la désinformation sur les vaccins sur Facebook, le président américain Joe Biden a répondu qu '"ils tuent des gens" en permettant aux théories du complot vaccinal de se propager.
Journaliste : "Sur la désinformation de Covid, quel est votre message aux plateformes comme Facebook ?"
– Bloomberg Quicktake (@Quicktake) 16 juillet 2021
Biden : "Ils tuent des gens" pic.twitter.com/SsSksFzytZ
Le commentaire de Biden est intervenu un jour après que la Maison Blanche a également noté qu'elle était en contact régulier avec les plateformes de médias sociaux pour s'assurer qu'elles restent au courant des derniers récits qui présentent un danger pour la santé publique.
Selon l'attachée de presse de la Maison Blanche, Jen Psaki :
"Nous travaillons pour nous engager avec eux afin de mieux comprendre l'application de la politique des plateformes de médias sociaux."
En réponse aux remarques de Biden, Facebook est immédiatement passé à l'offensive, un porte-parole de Facebook déclarant à ABC News qu'il "ne se laissera pas distraire par des accusations qui ne sont pas étayées par les faits".
Facebook a suivi cela avec une réponse officielle aujourd'hui, dans un article intitulé "Moving Past the Finger Pointing".
" À une époque où les cas de COVID-19 augmentent en Amérique, l'administration Biden a choisi de blâmer une poignée d'entreprises américaines de médias sociaux. Alors que les médias sociaux jouent un rôle important dans la société, il est clair que nous avons besoin d'une approche globale de la société pour mettre fin à cette pandémie. Et les faits - et non les allégations - devraient aider à éclairer cet effort. Le fait est que l'acceptation des vaccins parmi les utilisateurs de Facebook aux États-Unis a augmenté. Ces faits et d'autres racontent une histoire très différente de celle promue par l'administration ces derniers temps. jours."
Le message poursuit en soulignant diverses études qui montrent que les efforts de Facebook pour lutter contre la réticence à la vaccination fonctionnent et que, le cas échéant, les utilisateurs de Facebook sont moins résistants à l'effort de vaccination, contrairement aux remarques de Biden.
Ce qui est largement conforme à la position plus large de Facebook ces derniers temps - selon laquelle, sur la base de recherches universitaires, il n'y a actuellement aucun lien définitif entre l'augmentation de la réticence à la vaccination et le partage de Facebook, ni, sur une voie similaire, n'y a-t-il aucun lien direct entre l'utilisation de Facebook et la polarisation politique , malgré les réclamations en cours.
Ces derniers mois, Facebook a adopté une approche plus proactive pour rejeter ces idées, en expliquant que le contenu polarisant et extrémiste est en fait mauvais pour son entreprise, malgré la suggestion qu'il bénéficie de l'engagement connexe avec de tels messages.
Selon Facebook :
"Toutes les plateformes de médias sociaux, y compris, mais sans s'y limiter, la nôtre, reflètent ce qui se passe dans la société et ce qui préoccupe les gens à un moment donné. Cela inclut le bon, le mauvais et le laid. Par exemple, dans les semaines précédant la Coupe du monde, les messages sur le football vont naturellement augmenter - non pas parce que nous avons programmé nos algorithmes pour montrer aux gens du contenu sur le football, mais parce que c'est ce à quoi les gens pensent. Et tout comme la politique, le football touche une corde émotionnelle profonde chez les gens. Comment ils réagissent – le bon, le mauvais et le laid – seront reflétés sur les réseaux sociaux."
Le vice-président des affaires mondiales de Facebook, Nick Clegg, a également adopté un angle similaire en mars dans son article sur le fil d'actualité comme étant une interaction entre les personnes et la plate-forme - ce qui signifie que la plate-forme elle-même ne peut pas être entièrement à blâmer :
" Le but est de s'assurer que vous voyez ce que vous trouvez le plus significatif - pas de vous garder scotché à votre smartphone pendant des heures. Vous pouvez considérer ce genre de filtre anti-spam dans votre boîte de réception : il aide à filtrer le contenu que vous avez gagné Je ne trouve pas significatif ou pertinent, et donne la priorité au contenu que vous voulez."
Clegg note en outre que Facebook réduit activement la distribution de contenu sensationnel et trompeur, ainsi que les publications jugées fausses par ses partenaires indépendants de vérification des faits.
"Par exemple, Facebook rétrograde les clickbait (titres trompeurs ou exagérés), les allégations de santé hautement sensationnelles (comme celles faisant la promotion de "remèdes miracles") et les appâts d'engagement (messages qui cherchent explicitement à inciter les utilisateurs à s'engager avec eux)."
Clegg dit également que Facebook a pris un engagement particulièrement important à cet égard, en conflit avec ses propres intérêts commerciaux, en mettant en œuvre une modification de l'algorithme du fil d'actualité en 2018, ce qui donne plus de poids aux mises à jour de vos amis, de votre famille et de vos groupes. font partie de, sur le contenu des Pages que vous suivez.
Ainsi, selon Facebook, il ne bénéficie pas de contenu sensationnaliste et de théories du complot de centre gauche - et en fait, il fait tout son possible pour les pénaliser.
Pourtant, malgré ces affirmations et les références à des articles universitaires et à des études internes non concluants, les preuves plus larges ne soutiennent pas la position de Facebook.
Plus tôt cette semaine, le New York Times a rapporté que Facebook s'efforçait de changer le fonctionnement de sa propre plate-forme d'analyse de données, afin de restreindre l'accès du public aux informations qui montrent que les publications d'extrême droite et la désinformation fonctionnent mieux sur la plate-forme que plus. une couverture et des rapports équilibrés.

La controverse découle de ce profil Twitter, créé par le journaliste du Times Kevin Roose, qui affiche une liste quotidienne des dix messages les plus engageants sur Facebook, sur la base des données de CrowdTangle.
Les publications de liens les plus performantes des pages Facebook américaines au cours des dernières 24 heures proviennent de :
– Top 10 de Facebook (@FacebooksTop10) 14 juillet 2021
1. Pour l'Amérique
2. Gazette quotidienne de Taunton
3. Ben Shapiro
4. Ben Shapiro
5. Sean Hannity
6. Nelly
7. Ben Shapiro
8. Newsmax
9. Dan Bongino
10. Ben Shapiro
Les pages d'extrême droite dominent toujours le graphique, c'est pourquoi Facebook a précédemment cherché à expliquer que les mesures utilisées pour créer la liste sont erronées et ne sont donc pas indicatives de l'engagement et de la popularité réels des publications.
Selon le rapport du NYT, Facebook était en fait allé plus loin que cela en interne, les membres du personnel cherchant un moyen de modifier les données affichées dans CrowdTangle pour éviter une telle comparaison.
Ce qui ne s'est pas passé comme prévu :
"Plusieurs dirigeants ont proposé de rendre publiques les données de portée sur CrowdTangle, dans l'espoir que les journalistes citeraient ces données au lieu des données d'engagement qu'ils pensaient donner à Facebook une mauvaise image. Mais [Brandon] Silverman, directeur général de CrowdTangle, a répondu dans un e-mail que l'équipe de CrowdTangle avait a déjà testé une fonctionnalité pour le faire et a trouvé des problèmes avec elle. L'un des problèmes était que les nouvelles fausses et trompeuses se hissaient également en tête de ces listes.
Ainsi, peu importe comment Facebook cherchait à le faire tourner, ces types de publications gagnaient toujours du terrain, ce qui montre que, même avec les mises à jour et les processus susmentionnés pour limiter ce partage, cela reste le type de contenu qui suscite le plus d'engagement, et ainsi, atteindre sur le réseau social.
Ce qui, pourrait-on dire, est un problème humain, plutôt qu'un problème de Facebook. Mais avec 2,8 milliards d'utilisateurs, ce qui lui donne plus de potentiel d'amplification de contenu que n'importe quelle plate-forme de l'histoire, Facebook doit assumer la responsabilité du rôle qu'il joue dans ce processus, et du rôle qu'il peut potentiellement jouer pour amplifier l'impact de celui-ci dans le cas, disons, d'une pandémie où la campagne de peur des vaccins pourrait finir par coûter au monde un bilan incommensurable.
Il semble assez clair que Facebook joue un rôle important dans ce domaine. Et si l'on considère également qu'environ 70 % des Américains obtiennent désormais au moins du contenu d'actualité de Facebook, il est clair que l'application est devenue une source de vérité pour beaucoup, qui informe sur ce qu'ils font, y compris leurs positions politiques, leur compréhension civique. Et oui, leur point de vue sur les conseils de santé publique.
Heck, même les partisans de la terre plate ont pu gagner du terrain à l'ère moderne, soulignant la puissance des mouvements anti-science. Et encore une fois, même si vous ne pouvez pas affirmer avec certitude que Facebook en est responsable, si quelqu'un publie une vidéo aléatoire d'hommes de la terre plate essayant de prouver leur théorie, cela va probablement gagner du terrain en raison de la nature conflictuelle et sensationnelle de ce contenu - comme ce clip par exemple :

Des vidéos comme celle-ci attirent à la fois les croyants et les sceptiques, et bien que de nombreux commentaires soient critiques, c'est tout, selon le jugement algorithmique de Facebook, l'engagement.
Ainsi, même vos remarques moqueuses aideront ce matériel à gagner du terrain - et plus il y a de personnes qui commentent, plus ces publications prennent de l'ampleur.
8 personnes sur 10 pourraient rejeter ces théories comme des ordures totales, mais 2 pourraient en profiter pour creuser plus profondément. Multipliez cela par le nombre de vues que ces vidéos voient et c'est beaucoup d'influence potentielle sur ce front que Facebook facilite.
Et définitivement, ces types de publications gagnent en popularité. Une étude menée par le MIT en 2019 a révélé que les fausses nouvelles sur Twitter sont 70 % plus susceptibles d'être retweetées que celles qui sont vraies, tandis que des recherches plus approfondies sur les motivations derrière une telle activité ont révélé qu'un besoin d'appartenance et de communauté peut également solidifier les groupes. autour des mensonges et de la désinformation comme réponse psychologique.
Il y a aussi un autre élément clé à l'intérieur de cela - la nature changeante de la distribution des médias elle-même.
Comme l'a récemment expliqué le psychologue social de l'Université de Yale, William J. Brady :
"Lorsque vous publiez des choses [sur les réseaux sociaux], vous êtes très conscient des commentaires que vous obtenez, des commentaires sociaux en termes de likes et de partages. Ainsi, lorsque la désinformation fait davantage appel aux impulsions sociales que la vérité, elle attire davantage l'attention en ligne, ce qui signifie que les gens se sentent récompensés et encouragés à les diffuser."
Ce changement, en donnant à chacun sa propre motivation personnelle pour partager certains contenus, a changé le paradigme de la portée du contenu, ce qui a dilué l'influence des publications elles-mêmes au profit des algorithmes, - qui, encore une fois, sont alimentés par les gens et leur besoin de validation et réponse.
Vous partagez un message disant "les vaccins sont sûrs" et personne ne s'en souciera probablement, mais si vous en partagez un qui dit "les vaccins sont dangereux", les gens feront attention, et vous recevrez toutes les notifications de tous les goûts, partages et commentaires, qui déclencheront alors vos récepteurs de dopamine, et vous feront sentir que vous faites partie de quelque chose de plus grand, quelque chose de plus - que votre voix est importante dans le paysage plus large.
En tant que tel, Facebook a quelque peu raison de désigner la nature humaine comme coupable, et non ses propres systèmes. Mais elle, et d'autres plates-formes, ont donné aux gens le support, elles fournissent les moyens de partager, elles conçoivent les incitations pour les maintenir en ligne.
Et plus les gens passent de temps sur Facebook, mieux c'est pour les affaires de Facebook.
Vous ne pouvez pas prétendre que Facebook ne profite pas à cet égard - et en tant que tel, il est dans l'intérêt de l'entreprise de fermer les yeux et de prétendre qu'il n'y a pas de problème avec ses systèmes et le rôle qu'il joue dans l'amplification de tels mouvements. .
Mais c'est le cas, et le gouvernement américain a raison d'examiner cet élément de plus près.