YouTube beschreibt seinen Ansatz zur Bekämpfung von Fehlinformationen und die Herausforderungen bei effektiven Maßnahmen

Veröffentlicht: 2022-04-08

Die Debatte um Fehlinformationen auf sozialen Plattformen und wie sie überwacht werden sollten, ist unglaublich komplex und es gibt keine pauschalen Lösungen. Das Entfernen eindeutig falscher Berichte scheint der logischste und effektivste Schritt zu sein – aber das ist nicht immer so eindeutig, und zu weit in die andere Richtung zu gehen und zu viel zu entfernen, kann die freie Meinungsäußerung und wertvolle Debatten einschränken.

Jeder Ansatz birgt Gefahren, und heute hat Neal Mohan, Chief Product Officer von YouTube, seine Perspektive zu diesem Thema dargelegt und erklärt, wie YouTube versucht, seinen Ansatz gegen Fehlinformationen mit der Notwendigkeit in Einklang zu bringen, eine offene Plattform für alle Benutzer zu ermöglichen.

Zunächst einmal stellt Mohan bei der Bekämpfung medizinischer Fehlinformationen, dem derzeit wichtigsten Thema, fest, dass YouTube seit Februar 2020 über eine Million Videos im Zusammenhang mit Coronavirus-Informationen entfernt hat, darunter solche, die falsche Heilmittel fördern oder behaupten, die Pandemie sei ein Scherz.

„Inmitten einer globalen Pandemie sollte jeder mit den absolut besten verfügbaren Informationen ausgestattet sein, um sich und seine Familien zu schützen.“

Allerdings hat YouTube die Verbreitung einer erheblichen Menge an COVID-Fehlinformationen erleichtert. Im vergangenen Mai wurde beispielsweise ein umstrittenes Anti-Vax-Video namens „Plandemic“ über 7 Millionen Mal auf YouTube angesehen, bevor es entfernt wurde.

Die Herausforderung für YouTube in dieser Hinsicht, wie auch für Facebook, ist das Ausmaß – bei so vielen Menschen, die ständig auf der Plattform aktiv sind, ist es für YouTube schwierig, schnell genug zu handeln, um alles rechtzeitig zu erfassen, und sogar a Eine kleine Verzögerung bei der Durchsetzung kann zu Millionen weiterer Aufrufe und einer viel größeren Wirkung führen.

Dazu stellt Mohan fest, dass von den 10 Millionen Videos, die die Plattform jedes Quartal wegen Verstößen gegen die Richtlinien entfernt, die Mehrheit nicht einmal 10 Aufrufe erreicht. Aber noch einmal, das sind Durchschnittswerte, und es wird Fälle wie „Plandemic“ geben, die durch die Ritzen rutschen, was Mohan auch anerkennt.

„Schnelle Entfernungen werden immer wichtig sein, aber wir wissen, dass sie bei weitem nicht ausreichen. Stattdessen ist es die Art und Weise, wie wir auch alle Inhalte behandeln, die wir auf YouTube hinterlassen, die uns den besten Weg nach vorne weisen.“

An dieser Front sagt Mohan, dass ein weiteres Element des Ansatzes von YouTube darin besteht, sicherzustellen, dass Informationen aus vertrauenswürdigen Quellen in den Such- und Entdeckungselementen der App Priorität erhalten, während gleichzeitig versucht wird, die Reichweite weniger seriöser Anbieter zu verringern.

"Wenn Menschen jetzt nach Nachrichten oder Informationen suchen, erhalten sie Ergebnisse, die auf Qualität optimiert sind, nicht darauf, wie sensationell der Inhalt sein könnte."

Das ist der richtige Weg – die Optimierung des Engagements scheint in dieser Hinsicht ein gefährlicher Weg zu sein. Andererseits kann die moderne Medienlandschaft dies auch trüben, da Publikationen im Wesentlichen dazu angeregt werden, mehr spaltende, emotional aufgeladene Inhalte zu veröffentlichen, um mehr Klicks zu erzielen.

Wir haben dies Anfang der Woche gesehen, als die Daten von Facebook zeigten, dass dieser Beitrag von The Chicago Tribune allein im ersten Quartal dieses Jahres 54 Millionen Aufrufe durch Facebook-Engagement erzielt hatte.

Geschichte der Chicago Tribune

Die Schlagzeile ist irreführend – es wurde schließlich festgestellt, dass der Arzt an Ursachen gestorben ist, die nichts mit dem Impfstoff zu tun haben. Aber Sie können sich vorstellen, wie dies Anti-Vax-Gruppen im gesamten Social Network angeheizt hätte – und einige haben als Antwort gesagt, dass der Fehler in diesem Fall nicht die Systeme von Facebook waren, die die Verbreitung des Posts erleichterten, sondern The Chicago Tribune selbst für die Veröffentlichung einer eindeutig irreführenden Überschrift.

Das stimmt, aber gleichzeitig wissen alle Publikationen, was das Facebook-Engagement antreibt – und dieser Fall beweist es. Wenn Sie die Facebook-Reichweite und den Empfehlungsverkehr maximieren möchten, funktionieren emotionale, spaltende Schlagzeilen, die zum Engagement anregen, in Form von Likes, Shares und Kommentaren am besten. Die Tribune erhielt 54 Millionen Aufrufe für einen einzigen Artikel, was einen großen Fehler im Anreizsystem für Medienunternehmen unterstreicht.

Es hebt auch die Tatsache hervor, dass selbst „seriöse“ Medien Fehlinformationen und Inhalte veröffentlichen können, die gefährliche Bewegungen anheizen – selbst wenn YouTube sich darauf konzentriert, Inhalte aus vertrauenswürdigen Quellen zu teilen, wird dies also nicht immer eine Lösung für solche Probleme als solche sein.

Was Mohan weiter anmerkt:

„In vielen Fällen sind Fehlinformationen nicht eindeutig. Sie entwickeln sich von Natur aus ständig weiter und es fehlt oft eine primäre Quelle, um uns genau zu sagen, wer Recht hat. Wie nach einem Angriff können widersprüchliche Informationen aus allen möglichen Richtungen kommen. Crowdsourcing-Tipps haben sogar den falschen Täter oder die falschen Opfer identifiziert, mit verheerender Wirkung. Sollten Technologieunternehmen in Ermangelung von Gewissheit entscheiden, wann und wo sie Grenzen im düsteren Gebiet der Fehlinformationen ziehen? Ich bin fest davon überzeugt, dass nein.“

Sie können also sehen, warum Mohan zögert, auf weitere Entfernungen zu drängen, eine Lösung, die oft von externen Analysten gefordert wird, während Mohan auch auf die wachsende Einmischung unterdrückerischer Regime hinweist, die versuchen, gegensätzliche Ansichten durch Zensur von Online-Diskussionen zu unterdrücken.

„Wir sehen eine beunruhigende neue Dynamik in Bezug auf Regierungen, die das Entfernen von Inhalten für politische Zwecke anordnen. Und ich persönlich glaube, dass wir als Gesellschaft besser dran sind, wenn wir eine offene Debatte führen können. Die Fehlinformationen einer Person sind oft die tief verwurzelten Überzeugungen einer anderen Person. einschließlich Perspektiven, die provokativ, potenziell anstößig sind oder in einigen Fällen sogar Informationen enthalten, die einer Überprüfung durch einen Faktenprüfer möglicherweise nicht standhalten."

Auch hier sind die Antworten nicht klar, und für Plattformen mit der Reichweite von YouTube oder Facebook ist dies ein wichtiges Element, das untersucht und nach Möglichkeit Maßnahmen ergriffen werden muss.

Aber es wird nicht alles lösen. Manchmal lässt YouTube Dinge offen, die entfernt werden sollten, was zu weiteren potenziellen Problemen bei der Belichtung und Verstärkung führt, während es manchmal Inhalte entfernt, von denen viele glauben, dass sie hätten bleiben sollen. Mohan bestreitet dies nicht und entzieht sich auch nicht der Verantwortung dafür, und es ist interessant, die Nuance zu bemerken, die in dieser Debatte berücksichtigt wird, wenn er versucht, den besten Weg nach vorne zu bestimmen.

Es gibt Fälle, in denen die Dinge eindeutig sind – auf Anraten offizieller medizinischer Stellen sollten beispielsweise COVID-19-Fehlinformationen entfernt werden. Aber so funktioniert es nicht immer. In der Tat werden mehr als nur angemerkt, Beurteilungen von Plattform zu Plattform vorgenommen, obwohl dies wahrscheinlich nicht der Fall sein sollte. Die optimale Lösung könnte daher eine breitere, unabhängige Aufsichtsgruppe sein, die solche Aufrufe in Echtzeit durchführt und jede Plattform bei ihrem Ansatz anleitet.

Aber auch das kann missbraucht werden.

Wie bereits erwähnt, gibt es keine einfachen Antworten, aber es ist interessant, die Perspektive von YouTube auf die sich entwickelnde Debatte zu sehen.