Un dénonciateur de Facebook décrit des motivations contradictoires dans l'approche de l'entreprise en matière de contenu d'actualités

Publié: 2022-04-08

Facebook est-il mauvais pour la société, et l'entreprise contribue-t-elle sciemment à la division et à l'angoisse, afin de maximiser l'utilisation et le profit ?

C'est une question clé qui persiste depuis quelques années, en particulier depuis les élections américaines de 2016. Et maintenant, nous avons un aperçu de la propre réflexion de Facebook sur le sujet – au cours des deux dernières semaines, le Wall Street Journal a rapporté une série d'études internes et des réponses à celles-ci de la part de dirigeants de Facebook, qui ont été divulguées par un ancien membre du personnel de Facebook qui cherchait à exposer l'inaction de l'entreprise pour remédier aux principaux défauts de sa conception.

Cet ancien employé a été révélé hier soir par CBS comme étant Frances Haugen, une experte en conception algorithmique qui avait travaillé dans l'équipe d'intégrité civique de Facebook avant sa dissolution à la suite des élections américaines de 2020. Selon les informations partagées par Haugen, Facebook a en effet sciemment évité de prendre des mesures plus fortes pour remédier aux pires aspects de sa plate-forme, en raison des impacts que de telles mesures pourraient avoir sur l'utilisation, et donc sur les bénéfices.

Et tandis que Facebook a réfuté les affirmations de Haugen, ses déclarations s'alignent sur ce que de nombreux rapports précédents ont suggéré, soulignant les principales préoccupations concernant les impacts sociétaux du mastodonte social de Zuckerberg.

La principale affirmation de Haugen est que Facebook a sciemment négligé ou minimisé les résultats, basés sur ses propres recherches, en faveur du maintien de l'utilisation et de l'engagement des utilisateurs.

Comme l'explique Haugen :

"Ce que j'ai vu à maintes reprises sur Facebook, c'est qu'il y avait des conflits d'intérêts entre ce qui était bon pour le public et ce qui était bon pour Facebook. Et Facebook, encore et encore, a choisi d'optimiser pour ses propres intérêts, comme gagner plus d'argent.

Ce qui, dans une certaine mesure, a du sens – Facebook est, après tout, une entreprise, et en tant que telle, elle est motivée par le profit et offre une valeur maximale à ses actionnaires.

Le problème, dans le cas de Facebook, est qu'il exploite le dernier réseau interconnecté d'humains de l'histoire, se rapprochant de 3 milliards d'utilisateurs, dont beaucoup utilisent l'application pour rester informés, sur différents fronts, et recueillir des informations clés sur l'actualité. du jour. En tant que tel, il a un pouvoir important d'influence sur l'opinion.

Cela signifie, comme le note Haugen, que ses décisions peuvent avoir de grands impacts.

« Facebook gagne plus d'argent lorsque vous consommez plus de contenu. Les gens aiment s'engager avec des choses qui suscitent une réaction émotionnelle. Et plus ils sont exposés à la colère, plus ils interagissent et plus ils consomment.

En effet, parmi les diverses découvertes mises en évidence dans les fichiers Facebook de Haugen, les milliers de documents internes qu'elle a essentiellement sortis clandestinement du siège social de Facebook, sont des suggestions que Facebook a :

  • A négligé la prévalence et l'impact du discours de haine sur ses plateformes, en raison du fait que ce contenu suscite également plus d'engagement parmi les utilisateurs
  • Minimisé les impacts négatifs d'Instagram sur les jeunes utilisateurs, les résultats montrant que la plate-forme amplifie l'image corporelle négative
  • N'a pas répondu aux principales préoccupations concernant l'utilisation de Facebook dans les régions en développement, en partie à cause de l'analyse coûts/avantages
  • Échec de la lutte contre la propagation du contenu anti-vaccin

Encore une fois, bon nombre de ces éléments ont été largement rapportés ailleurs, mais les fichiers de Haugen fournissent des preuves directes que Facebook est en effet bien conscient de chacun de ces aspects, et a choisi, parfois, de ne pas agir, ou de prendre des contre-mesures importantes, en grande partie à cause à un conflit avec ses intérêts commerciaux.

L'équipe de relations publiques de Facebook a travaillé dur pour contrer ces affirmations, en fournissant des réponses point par point à chacun des rapports de Facebook Files, notant que l'existence de ces rapports de recherche, en eux-mêmes, montre que Facebook s'efforce de répondre à ces préoccupations, et combattre ces éléments problématiques.

Facebook souligne divers changements apportés à Instagram pour offrir plus d'options de protection et de contrôle aux utilisateurs, tandis que Facebook s'efforce également d'améliorer le classement de son algorithme afin de limiter l'exposition aux contenus qui divisent et angoissent.

Mais en même temps, Facebook a minimisé les impacts d'une telle situation à plus grande échelle.

En tant que vice-président de la politique et des affaires mondiales de Facebook, Nick Clegg a noté la suggestion selon laquelle Facebook aurait joué un rôle clé dans la contribution aux manifestations post-électorales au Capitole.

"Je pense que l'affirmation [que] le 6 janvier peut être expliquée à cause des médias sociaux, je pense juste que c'est ridicule."

Le point de vue de Clegg est que Facebook n'est qu'une petite partie d'un changement sociétal plus large, et qu'il ne peut tout simplement pas être le problème central qui a conduit à un conflit aussi majeur, dans diverses régions.

Il est impossible de savoir quel est l'impact de Facebook à cet égard, mais clairement, d'après les fichiers de Haugen, il y a des contributeurs clés là-bas.

« Facebook gagne plus d'argent lorsque vous consommez plus de contenu. Les gens aiment s'engager avec des choses qui suscitent une réaction émotionnelle. Et plus ils sont exposés à la colère, plus ils interagissent et plus ils consomment.

La colère est l'émotion qui suscite le plus de réactions, le plus d'engagement, et Haugen soutient essentiellement que Facebook en profite, en facilitant la diffusion de contenu inspirant la haine qui, en tant que sous-produit, amplifie la division.

« Lorsque nous vivons dans un environnement d'information rempli de contenus colériques, haineux et polarisants, cela érode notre confiance civique, cela érode notre foi les uns envers les autres, cela érode notre capacité à vouloir prendre soin les uns des autres, la version de Facebook qui existe aujourd'hui déchire nos sociétés et provoque des violences ethniques dans le monde entier.

Il y a deux côtés à cela, et les deux peuvent être tout aussi corrects. La première, comme le note Haugen, est que Facebook a une motivation sous-jacente pour faciliter la diffusion de contenu incitant à la haine, ce qui suscite plus d'engagement parmi ses utilisateurs, tout en exacerbant la division sociétale - ce qui, à l'échelle de Facebook, peut avoir un impact significatif.

D'un autre côté, comme le note Facebook, il ne mène pas de telles recherches pour rien. Fermer complètement les yeux sur ces problèmes reviendrait à ne pas mener ces études du tout, et bien que Zuck and Co. ne prenne peut-être pas autant de mesures que toutes les parties le souhaiteraient, il existe des preuves suggérant que l'entreprise s'efforce de résoudre ces problèmes. préoccupations, bien que d'une manière plus mesurée qui, idéalement, diminue également l'impact sur l'entreprise.

La question est de savoir si « l'impact commercial » doit être pris en compte dans de telles décisions conséquentes ?

Encore une fois, Facebook exploite le plus grand réseau interconnecté de personnes de l'histoire, nous ne savons donc pas quels peuvent être les impacts complets de son partage influencé par les algorithmes, car nous n'avons pas d'autre exemple auquel nous référer, il n'y a pas de précédent pour Facebook et son impact plus large.

À certains égards, Facebook, à son échelle et à son influence, devrait vraiment être un service public, ce qui changerait alors les motivations de l'entreprise – comme le note Haugen :

« Personne sur Facebook n'est malveillant, mais les incitations sont mal alignées, n'est-ce pas ? Par exemple, Facebook gagne plus d'argent lorsque vous consommez plus de contenu. Les gens aiment s'engager avec des choses qui suscitent une réaction émotionnelle. Et plus ils sont exposés à la colère, plus ils interagissent et plus ils consomment.

Au fond, c'est le principal problème - nous avons maintenant une situation où l'un des principaux véhicules de distribution et de diffusion de l'information est motivé non pas en gardant les gens informés de manière fiable, mais en suscitant le plus d'engagement possible. Et la façon d'y parvenir est d'inciter à une réaction émotionnelle, la haine et la colère étant parmi les motivations les plus puissantes pour inciter les gens à réagir.

Selon des recherches, près d'un tiers des adultes américains accèdent régulièrement au contenu d'actualités sur Facebook - cela signifie qu'au moins 86 millions d'Américains obtiennent un aperçu direct des derniers événements à partir d'une plate-forme qui a une motivation claire pour leur montrer les plus angoissants, chargé d'émotion prend chaque problème.

Les éditeurs de nouvelles le savent également, tout comme les politiciens – en fait, selon les fichiers Facebook, divers groupes politiques ont adopté des approches plus partisanes et plus conflictuelles dans leurs approches afin d'apaiser l'algorithme de Facebook.

Lorsque vous considérez l'ampleur de la portée et l'impact de la plate-forme sur ces messages, il est clair que Facebook a une influence sur la façon dont nous nous engageons.

Mais avec des motivations contradictoires et un besoin de maximiser l'engagement face à une concurrence croissante, pouvons-nous vraiment nous attendre à ce que Facebook change son approche pour le plus grand bien ?