YouTube décrit son approche de la lutte contre la désinformation policière et les défis d'une action efficace
Publié: 2022-04-08Le débat autour de la désinformation sur les plateformes sociales et de la manière dont elle devrait être contrôlée est incroyablement complexe, sans solutions globales. Supprimer les rapports clairement faux semble être l'étape la plus logique et la plus efficace - mais ce n'est pas toujours aussi clair, et se pencher trop loin dans l'autre sens, et en supprimer trop, peut limiter la liberté d'expression et un débat précieux.
L'une ou l'autre approche comporte des dangers, et aujourd'hui, le chef de produit de YouTube, Neal Mohan, a donné son point de vue sur la question et comment YouTube cherche à équilibrer son approche de la désinformation avec la nécessité de faciliter une plate-forme ouverte pour tous les utilisateurs.
Tout d'abord, en s'attaquant spécifiquement à la désinformation médicale, le sujet clé du moment, Mohan note que YouTube a supprimé plus d'un million de vidéos liées aux informations sur les coronavirus depuis février 2020, y compris celles faisant la promotion de faux remèdes ou affirmant que la pandémie est un canular.
"Au milieu d'une pandémie mondiale, tout le monde devrait être armé des meilleures informations disponibles pour assurer sa sécurité et celle de sa famille."
Cela dit, YouTube a facilité la propagation d'une quantité importante de fausses informations sur le COVID. En mai dernier, par exemple, une vidéo anti-vax controversée appelée "Plandemic" a été visionnée plus de 7 millions de fois sur YouTube avant d'être supprimée.
Le défi pour YouTube à cet égard, comme pour Facebook, est l'échelle - avec autant de personnes actives sur la plate-forme, tout le temps, il est difficile pour YouTube d'agir assez rapidement pour tout capter en temps opportun, et même un un petit retard dans l'application peut entraîner des millions de vues supplémentaires et un impact beaucoup plus important.
À ce sujet, Mohan note que sur les 10 millions de vidéos que la plate-forme supprime chaque trimestre pour violation des directives, la majorité n'atteint même pas 10 vues. Mais encore une fois, ce sont des moyennes, et il y aura des cas comme "Plandemic" qui passeront entre les mailles du filet, ce que Mohan reconnaît également.
"Les suppressions rapides seront toujours importantes, mais nous savons qu'elles ne suffisent pas. Au lieu de cela, c'est la façon dont nous traitons également tout le contenu que nous laissons sur YouTube qui nous donne la meilleure voie à suivre."
Sur ce front, Mohan dit qu'un autre élément de l'approche de YouTube consiste à garantir que les informations provenant de sources fiables obtiennent la priorité dans les éléments de recherche et de découverte de l'application, tout en cherchant par la suite à réduire la portée des fournisseurs moins réputés.
"Lorsque les gens recherchent désormais des actualités ou des informations, ils obtiennent des résultats optimisés pour la qualité, et non pour le caractère sensationnel du contenu."
Quelle est la bonne voie à suivre - l'optimisation de l'engagement semble être une voie dangereuse à cet égard. Mais encore une fois, le paysage médiatique moderne peut également obscurcir cela, avec des publications essentiellement incitées à publier un contenu plus conflictuel et chargé d'émotion afin de générer plus de clics.
Nous l'avons vu plus tôt dans la semaine, lorsque les données de Facebook ont révélé que ce message, du Chicago Tribune, avait recueilli 54 millions de vues grâce à l'engagement de Facebook au premier trimestre de cette année.

Le titre est trompeur - il a finalement été découvert que le médecin était décédé de causes sans rapport avec le vaccin. Mais vous pouvez imaginer comment cela aurait alimenté les groupes anti-vax sur le réseau social - et certains, en réponse, ont dit que la faute dans ce cas n'était pas les systèmes de Facebook, qui ont facilité l'amplification du message, mais le Chicago Tribune lui-même. pour avoir publié un titre clairement trompeur.

Ce qui est vrai, mais en même temps, toutes les publications savent ce qui motive l'engagement sur Facebook - et ce cas le prouve. Si vous souhaitez maximiser la portée de Facebook et le trafic de référence, les titres émotionnels et diviseurs qui suscitent l'engagement, sous la forme de likes, de partages et de commentaires, fonctionnent mieux. Le Tribune a obtenu 54 millions de vues à partir d'un seul article, ce qui souligne une faille majeure dans le système d'incitation des médias.
Cela met également en évidence le fait que même les points de vente "réputés" peuvent publier des informations erronées et des contenus qui alimentent des mouvements dangereux - donc même avec l'accent mis par YouTube sur le partage de contenu provenant de sources fiables, cela ne sera pas toujours une solution à de tels problèmes, en tant que tels.
Ce que Mohan note en outre :
"Dans de nombreux cas, la désinformation n'est pas claire. Par nature, elle évolue constamment et manque souvent d'une source principale pour nous dire exactement qui a raison. Comme au lendemain d'une attaque, des informations contradictoires peuvent provenir de toutes les directions. ont même identifié le mauvais coupable ou les mauvaises victimes, avec un effet dévastateur. En l'absence de certitude, les entreprises technologiques devraient-elles décider quand et où fixer des limites dans le territoire trouble de la désinformation ? Ma ferme conviction est non.
Vous pouvez alors comprendre pourquoi Mohan hésite à faire pression pour davantage de suppressions, une solution souvent préconisée par des analystes extérieurs, tandis que Mohan souligne également l'ingérence croissante de régimes oppressifs cherchant à annuler les opinions opposées par la censure des discussions en ligne.
"Nous assistons à un nouvel élan inquiétant autour des gouvernements ordonnant le retrait de contenu à des fins politiques. Et je pense personnellement que nous sommes mieux en tant que société lorsque nous pouvons avoir un débat ouvert. La désinformation d'une personne est souvent la croyance profonde d'une autre personne, y compris des perspectives qui sont provocatrices, potentiellement offensantes, ou même dans certains cas, incluent des informations qui peuvent ne pas passer l'examen d'un vérificateur des faits."
Encore une fois, les réponses ne sont pas claires, et pour les plates-formes ayant la portée de YouTube ou de Facebook, il s'agit d'un élément important qui nécessite une enquête et une action lorsque cela est possible.
Mais cela ne résoudra pas tout. Parfois, YouTube laissera des éléments qui devraient être supprimés, ce qui entraînera davantage de problèmes potentiels d'exposition et d'amplification, tandis que d'autres fois, il supprimera du contenu qui, selon beaucoup, aurait dû être laissé. Mohan ne nie pas cela, ni ne se dérobe à sa responsabilité, et il est intéressant de noter la nuance prise en compte dans ce débat lorsqu'il s'agit de déterminer la meilleure voie à suivre.
Il y a des cas où les choses sont claires - sous l'avis d'organismes médicaux officiels, par exemple, la désinformation sur le COVID-19 doit être supprimée. Mais ce n'est pas toujours comme ça que ça marche. En fait, plus souvent qu'il n'y paraît, les jugements sont portés sur une plate-forme par plate-forme, alors qu'ils ne devraient probablement pas l'être. La solution optimale pourrait alors être un groupe de surveillance plus large et indépendant faisant des appels en temps réel et guidant chaque plate-forme dans son approche.
Mais même cela pourrait faire l'objet d'abus.
Comme indiqué, il n'y a pas de réponses faciles, mais il est intéressant de voir le point de vue de YouTube sur l'évolution du débat.