Facebook kollidiert mit der US-Regierung wegen Fehlinformationen über Impfstoffe

Veröffentlicht: 2022-04-08

Es sieht so aus, als ob sich Facebook erneut auf Kollisionskurs mit der US-Regierung befindet, diesmal wegen der Rolle, die es möglicherweise bei der Verstärkung von Fehlinformationen über COVID-19-Impfstoffe spielt oder nicht, die als Haupthindernis identifiziert wurden Der Weg der Nation zur Genesung von der Pandemie.

Am Freitag antwortete US-Präsident Joe Biden auf die direkte Frage nach Fehlinformationen zu Impfstoffen auf Facebook, dass „sie Menschen töten“, indem sie die Verbreitung von Verschwörungstheorien über Impfstoffe zulassen.

Bidens Kommentar kam einen Tag, nachdem das Weiße Haus außerdem feststellte, dass es in regelmäßigem Kontakt mit Social-Media-Plattformen stand, um sicherzustellen, dass sie über die neuesten Erzählungen informiert sind, die eine Gefahr für die öffentliche Gesundheit darstellen

Laut Pressesprecherin des Weißen Hauses, Jen Psaki:

„Wir arbeiten daran, mit ihnen zusammenzuarbeiten, um die Durchsetzung der Richtlinien für Social-Media-Plattformen besser zu verstehen.“

Als Reaktion auf Bidens Äußerungen ging Facebook sofort in die Offensive, wobei ein Facebook-Sprecher ABC News mitteilte, dass es „sich nicht von Anschuldigungen ablenken lässt, die nicht durch Fakten gestützt werden“.

Facebook folgte dem heute mit einer offiziellen Antwort in einem Beitrag mit dem Titel „Moving Past the Finger Pointing“.

In einer Zeit, in der COVID-19-Fälle in Amerika zunehmen, hat die Biden-Administration beschlossen, einer Handvoll amerikanischer Social-Media-Unternehmen die Schuld zu geben. Obwohl Social Media eine wichtige Rolle in der Gesellschaft spielt, ist es klar, dass wir einen gesamtgesellschaftlichen Ansatz brauchen um diese Pandemie zu beenden. Und Fakten – nicht Behauptungen – sollten dazu beitragen, diese Bemühungen zu untermauern. Tatsache ist, dass die Akzeptanz von Impfstoffen unter Facebook-Nutzern in den USA zugenommen hat. Diese und andere Fakten sprechen eine ganz andere Geschichte als die, die kürzlich von der Regierung propagiert wurde Tage."

Der Beitrag fährt fort, verschiedene Studien hervorzuheben, die zeigen, dass die Bemühungen von Facebook, die Impfzögerlichkeit anzugehen, funktionieren und dass Facebook-Nutzer im Gegensatz zu Bidens Äußerungen weniger resistent gegen die Impfbemühungen sind.

Was weitgehend mit der breiteren Haltung von Facebook in letzter Zeit übereinstimmt – dass es laut akademischer Forschung derzeit keinen definitiven Zusammenhang zwischen zunehmender Impfzögerlichkeit und Facebook-Sharing gibt, noch gibt es auf ähnliche Weise einen direkten Zusammenhang zwischen Facebook-Nutzung und politischer Polarisierung , trotz laufender Ansprüche.

In den letzten Monaten hat Facebook einen proaktiveren Ansatz gewählt, um diese Ideen abzulehnen, indem es erklärt, dass polarisierende und extremistische Inhalte tatsächlich schlecht für sein Geschäft sind, trotz des Vorschlags, dass es von der damit verbundenen Auseinandersetzung mit solchen Beiträgen profitiert.

Laut Facebook:

„Alle Social-Media-Plattformen, einschließlich, aber nicht beschränkt auf unsere, spiegeln wider, was in der Gesellschaft passiert und was die Menschen zu einem bestimmten Zeitpunkt beschäftigt. Dazu gehören das Gute, das Schlechte und das Hässliche. Zum Beispiel in den Wochen vor Fußballweltmeisterschaft werden die Posts über Fußball natürlich zunehmen – nicht weil wir unsere Algorithmen so programmiert haben, dass sie den Leuten Inhalte über Fußball zeigen, sondern weil die Leute darüber nachdenken – das Gute, das Schlechte und das Hässliche – wird sich in den sozialen Medien widerspiegeln.“

Auch der Vice President of Global Affairs von Facebook, Nick Clegg, vertrat im März einen ähnlichen Standpunkt in seinem Beitrag über den News Feed als Zusammenspiel zwischen Menschen und Plattform – was bedeutet, dass die Plattform selbst nicht die volle Schuld tragen kann:

Das Ziel ist sicherzustellen, dass Sie sehen, was Sie am sinnvollsten finden – und nicht , Sie stundenlang an Ihr Smartphone kleben zu lassen. Sie können sich das wie einen Spam-Filter in Ihrem Posteingang vorstellen: Er hilft dabei, Inhalte herauszufiltern, die Sie gewonnen haben nicht aussagekräftig oder relevant finden, und priorisiert Inhalte, die Sie werden."

Clegg merkt weiter an, dass Facebook aktiv die Verbreitung von aufsehenerregenden und irreführenden Inhalten sowie Posts reduziert, die von seinen unabhängigen Faktenprüfungspartnern als falsch befunden werden.

„Zum Beispiel wertet Facebook Clickbait (irreführende oder übertriebene Schlagzeilen), höchst aufsehenerregende gesundheitsbezogene Behauptungen (wie solche, die für „Wundermittel“ werben) und Engagement-Bait (Beiträge, die explizit darauf abzielen, Benutzer dazu zu bringen, sich mit ihnen zu beschäftigen) ab.

Clegg sagt auch, dass Facebook im Widerspruch zu seinen eigenen Geschäftsinteressen ein besonders wichtiges Engagement dafür eingegangen ist, indem es bereits 2018 eine Änderung am News Feed-Algorithmus vorgenommen hat, die Updates von Ihren Freunden, Ihrer Familie und Gruppen mehr Gewicht verleiht, die Sie ' Sie sind ein Teil von Inhalten von Seiten, denen Sie folgen.

Laut Facebook profitiert es also nicht von sensationslüsternen Inhalten und Verschwörungstheorien links von der Mitte – und tut tatsächlich alles, um solche zu bestrafen.

Doch trotz dieser Behauptungen und der Verweise auf nicht schlüssige wissenschaftliche Arbeiten und interne Studien unterstützen die breiteren Beweise die Haltung von Facebook nicht.

Anfang dieser Woche berichtete die New York Times, dass Facebook daran arbeite, die Funktionsweise seiner eigenen Datenanalyseplattform zu ändern, um den öffentlichen Zugang zu Erkenntnissen zu beschränken, die zeigen, dass rechtsextreme Posts und Fehlinformationen auf der Plattform besser abschneiden als mehr ausgewogene Berichterstattung und Berichte.

Die Kontroverse rührt von diesem Twitter-Profil her, das vom Times-Reporter Kevin Roose erstellt wurde und eine tägliche Liste der zehn ansprechendsten Posts auf Facebook anzeigt, basierend auf CrowdTangle-Daten.

Rechtsextreme Seiten dominieren immer das Diagramm, weshalb Facebook zuvor versucht hat zu erklären, dass die bei der Erstellung des Eintrags verwendeten Metriken falsch sind und daher nicht auf das tatsächliche Engagement und die Popularität von Beiträgen hinweisen.

Dem NYT-Bericht zufolge war Facebook intern sogar noch weiter gegangen, als Mitarbeiter nach einer Möglichkeit suchten, die in CrowdTangle angezeigten Daten zu ändern, um einen solchen Vergleich zu vermeiden.

Was nicht wie geplant lief:

„Mehrere Führungskräfte schlugen vor, Reichweitendaten auf CrowdTangle zu veröffentlichen, in der Hoffnung, dass Reporter diese Daten anstelle der Engagement-Daten zitieren würden, von denen sie dachten, dass sie Facebook schlecht aussehen ließen. Aber [Brandon] Silverman, Chief Executive von CrowdTangle, antwortete in einer E-Mail, die das CrowdTangle-Team hatte Wir haben bereits eine Funktion dafür getestet und dabei Probleme festgestellt. Ein Problem war, dass falsche und irreführende Nachrichten auch ganz oben auf diesen Listen standen."

Unabhängig davon, wie Facebook es drehen wollte, gewannen diese Arten von Beiträgen immer noch an Bedeutung, was zeigt, dass dies trotz der oben genannten Aktualisierungen und Prozesse zur Begrenzung solcher Weitergaben die Art von Inhalten bleibt, die am meisten Engagement erfahren, und erreichen Sie also auf The Social Network.

Was, könnte man argumentieren, eher ein menschliches Problem als ein Facebook-Problem ist. Aber mit 2,8 Milliarden Nutzern, die ihm mehr Potenzial für die Erweiterung von Inhalten bieten als jede andere Plattform in der Geschichte, muss Facebook die Verantwortung für die Rolle übernehmen, die es in diesem Prozess spielt, und die Rolle, die es möglicherweise bei der Verstärkung der Auswirkungen eines solchen Prozesses spielen kann Beispiel einer Pandemie, bei der das Schüren von Angst vor Impfstoffen die Welt einen nicht messbaren Tribut kosten könnte.

Es scheint ziemlich klar, dass Facebook dabei eine bedeutende Rolle spielt. Und wenn Sie auch bedenken, dass etwa 70 % der Amerikaner jetzt zumindest einige Nachrichteninhalte von Facebook erhalten, ist klar, dass die App für viele zu einer Quelle der Wahrheit geworden ist, die sie darüber informiert, was sie tun, einschließlich ihrer politischen Haltung, ihres staatsbürgerlichen Verständnisses. Und ja, ihre Sicht der öffentlichen Gesundheitsberatung.

Verdammt noch mal, sogar Flat Earthers konnten in der Moderne Fuß fassen, was die Macht von Anti-Wissenschafts-Bewegungen unterstreicht. Und auch wenn Sie nicht definitiv sagen können, dass Facebook dafür verantwortlich ist, wenn jemand ein zufälliges Video von Flacherdern veröffentlicht, die versuchen, ihre Theorie zu beweisen, wird das wahrscheinlich aufgrund der spaltenden, sensationellen Natur dieser Inhalte an Bedeutung gewinnen – wie dieser Clip zum Beispiel:

Flache Erde-Video

Videos wie dieses ziehen sowohl Gläubige als auch Skeptiker an, und obwohl viele der Kommentare kritisch sind, ist das nach dem algorithmischen Urteil von Facebook alles, was Engagement bedeutet.

Daher werden selbst Ihre spöttischen Bemerkungen dazu beitragen, dass solches Material an Zugkraft gewinnt - und je mehr Leute kommentieren, desto mehr Schwung bekommen solche Posts.

8 von 10 Menschen mögen solche Theorien als totalen Müll abtun, aber 2 könnten die Gelegenheit nutzen, um tiefer zu graben. Multiplizieren Sie das mit der Anzahl der Aufrufe, die diese Videos sehen, und das ist eine Menge potenzieller Einflussmöglichkeiten an dieser Front, die Facebook ermöglicht.

Und definitiv gewinnen diese Arten von Beiträgen an Bedeutung. Eine vom MIT im Jahr 2019 durchgeführte Studie ergab, dass falsche Nachrichten auf Twitter mit 70 % höherer Wahrscheinlichkeit retweetet werden als solche, die wahr sind, während weitere Untersuchungen zu den Beweggründen hinter solchen Aktivitäten ergeben haben, dass das Bedürfnis nach Zugehörigkeit und Gemeinschaft auch Gruppen festigen kann um Lügen und Fehlinformationen als psychologische Reaktion.

Dazu kommt noch ein weiteres Schlüsselelement – ​​die sich verändernde Natur der Medienverteilung selbst.

Wie William J. Brady, Sozialpsychologe der Yale University, kürzlich erklärte:

„Wenn Sie Dinge [auf Social Media] posten, sind Sie sich des Feedbacks, das Sie erhalten, des sozialen Feedbacks in Form von Likes und Shares sehr bewusst. Wenn also Fehlinformationen soziale Impulse mehr ansprechen als die Wahrheit, erhalten sie online mehr Aufmerksamkeit, was bedeutet, dass sich die Menschen für ihre Verbreitung belohnt und ermutigt fühlen."

Diese Verschiebung, die jeder Person ihre eigene persönliche Motivation gibt, bestimmte Inhalte zu teilen, hat das Paradigma für die Reichweite von Inhalten verändert, was den Einfluss von Veröffentlichungen selbst zugunsten von Algorithmen verwässert hat – die wiederum von Menschen und ihrem Bedürfnis nach Inhalten angetrieben werden Bestätigung und Antwort.

Sie teilen einen Beitrag mit der Aufschrift „Impfstoffe sind sicher“ und es wird wahrscheinlich niemanden interessieren, aber wenn Sie einen mit der Aufschrift „Impfstoffe sind gefährlich“ teilen, werden die Leute darauf achten, und Sie erhalten alle Benachrichtigungen von allen Likes, Shares und Kommentare, die dann Ihre Dopaminrezeptoren auslösen und Ihnen das Gefühl geben, Teil von etwas Größerem, etwas Größerem zu sein - dass Ihre Stimme in der breiteren Landschaft wichtig ist.

Als solches hat Facebook etwas Recht, wenn es auf die menschliche Natur als Schuldige hinweist und nicht auf seine eigenen Systeme. Aber sie und andere Plattformen haben den Menschen das Medium gegeben, sie bieten die Mittel zum Teilen, sie entwickeln die Anreize, um sie am Posten zu halten.

Und je mehr Zeit die Menschen auf Facebook verbringen, desto besser für das Geschäft von Facebook.

Man kann nicht argumentieren, dass Facebook in dieser Hinsicht nicht profitiert – und daher liegt es im Interesse des Unternehmens, ein Auge zuzudrücken und so zu tun, als gäbe es kein Problem mit seinen Systemen und der Rolle, die es bei der Verstärkung solcher Bewegungen spielt .

Aber es tut es, es ist, und die US-Regierung hat Recht, sich dieses Element genauer anzusehen.