Facebook-Whistleblower skizziert widersprüchliche Motivationen im Umgang des Unternehmens mit Nachrichteninhalten

Veröffentlicht: 2022-04-08

Ist Facebook schlecht für die Gesellschaft und trägt das Unternehmen bewusst zu Spaltung und Angst bei, um Nutzung und Gewinn zu maximieren?

Dies ist eine Schlüsselfrage, die sich in den letzten Jahren, insbesondere seit den US-Wahlen 2016, beschäftigt hat. Und jetzt haben wir einen Einblick in Facebooks eigene Gedanken zu diesem Thema – in den letzten zwei Wochen hat das Wall Street Journal über eine Reihe interner Studien und Antworten darauf von Facebook-Führungskräften berichtet, die von einem ehemaligen Facebook-Mitarbeiter geleakt wurden versuchte, die Untätigkeit des Unternehmens bei der Behebung der wichtigsten Mängel in seinem Design aufzudecken.

Diese ehemalige Mitarbeiterin wurde gestern Abend von CBS als Frances Haugen entlarvt, eine Expertin für algorithmisches Design, die im Civic Integrity-Team von Facebook gearbeitet hatte, bevor es nach den US-Wahlen 2020 aufgelöst wurde. Laut den von Haugen geteilten Informationen hat Facebook es tatsächlich bewusst vermieden, stärkere Maßnahmen zu ergreifen, um die schlimmsten Aspekte seiner Plattform anzugehen, da solche Schritte Auswirkungen auf die Nutzung und damit auf die Gewinne haben könnten.

Und obwohl Facebook Haugens Behauptungen widerlegt hat, stimmen ihre Aussagen mit dem überein, was viele frühere Berichte vorgeschlagen haben, und unterstreichen die wichtigsten Bedenken hinsichtlich der gesellschaftlichen Auswirkungen von Zuckerbergs sozialem Ungetüm.

Haugens Hauptargument ist, dass Facebook wissentlich Erkenntnisse übersehen oder heruntergespielt hat, die auf eigenen Recherchen basieren, um die Nutzung und das Nutzerengagement aufrechtzuerhalten.

Wie von Haugen erklärt:

„Was ich bei Facebook immer wieder gesehen habe, waren Interessenkonflikte zwischen dem, was gut für die Öffentlichkeit ist, und dem, was gut für Facebook ist. Und Facebook hat sich immer wieder dafür entschieden, für seine eigenen Interessen zu optimieren, wie zum Beispiel mehr Geld zu verdienen.“

Was bis zu einem gewissen Grad Sinn macht – schließlich ist Facebook ein Unternehmen, und als solches ist es profitorientiert und bietet maximalen Wert für seine Aktionäre.

Das Problem im Fall von Facebook besteht darin, dass es das neueste miteinander verbundene Netzwerk von Menschen in der Geschichte betreibt und sich 3 Milliarden Nutzern nähert, von denen viele die App nutzen, um an verschiedenen Fronten auf dem Laufenden zu bleiben und wichtige Erkenntnisse über die Nachrichten zu sammeln des Tages. Als solches hat es eine erhebliche Meinungsbeeinflussungsmacht.

Das bedeutet, wie Haugen feststellt, dass seine Entscheidungen große Auswirkungen haben können.

Facebook macht mehr Geld, wenn Sie mehr Inhalte konsumieren. Menschen beschäftigen sich gerne mit Dingen, die eine emotionale Reaktion hervorrufen. Und je mehr Wut sie ausgesetzt sind, desto mehr interagieren sie und desto mehr konsumieren sie.

Tatsächlich sind unter den verschiedenen Erkenntnissen, die in Haugens Facebook-Dateien hervorgehoben werden, die Tausenden von internen Dokumenten, die sie im Wesentlichen aus dem Facebook-Hauptquartier geschmuggelt hat, Vorschläge, die Facebook hat:

  • Hatte die Verbreitung und Auswirkung von Hassreden auf seinen Plattformen übersehen, da solche Inhalte auch zu mehr Engagement bei den Nutzern führen
  • Die negativen Auswirkungen von Instagram auf junge Nutzer wurden heruntergespielt, wobei die Ergebnisse zeigten, dass die Plattform ein negatives Körperbild verstärkt
  • Hauptanliegen bezüglich der Facebook-Nutzung in Entwicklungsregionen nicht ausgeräumt, teilweise aufgrund von Kosten-Nutzen-Analysen
  • Die Verbreitung von Inhalten gegen Impfungen wurde nicht angegangen

Auch hier wurden viele dieser Elemente an anderer Stelle ausführlich berichtet, aber Haugens Akten liefern einen direkten Beweis dafür, dass Facebook sich dieser Aspekte tatsächlich bewusst ist und sich manchmal entschieden hat, nicht zu handeln oder erhebliche Gegenmaßnahmen zu ergreifen, die größtenteils fällig sind zu einem Konflikt mit seinen Geschäftsinteressen.

Das PR-Team von Facebook hat hart daran gearbeitet, solchen Behauptungen entgegenzuwirken, indem es Punkt-für-Punkt-Antworten auf jeden der Facebook-Dateiberichte bereitstellte und feststellte, dass die Existenz dieser Forschungsberichte an sich zeigt, dass Facebook daran arbeitet, solche Bedenken auszuräumen, und Bekämpfung dieser problematischen Elemente.

Facebook weist auf verschiedene Änderungen hin, die es auf Instagram vorgenommen hat, um den Benutzern mehr Schutz- und Kontrolloptionen zu bieten, während Facebook auch daran arbeitet, sein Algorithmus-Ranking zu verbessern, um die Exposition gegenüber spaltenden, angsterregenden Inhalten zu begrenzen.

Aber gleichzeitig hat Facebook die Auswirkungen solcher Maßnahmen auf breiterer Ebene heruntergespielt.

Als Vizepräsident für Politik und globale Angelegenheiten von Facebook hat Nick Clegg auf den Vorschlag hingewiesen, dass Facebook eine Schlüsselrolle bei der Unterstützung der Proteste nach den Wahlen im Kapitol gespielt habe.

„Ich denke, die Behauptung [dass] der 6. Januar durch soziale Medien erklärt werden kann, ich finde das einfach lächerlich.“

Clegg ist der Ansicht, dass Facebook nur ein kleiner Teil eines breiteren gesellschaftlichen Wandels ist und dass es einfach nicht das Kernproblem sein kann, das zu so großen Konflikten in verschiedenen Regionen geführt hat.

Es ist unmöglich zu wissen, welchen Einfluss Facebook in dieser Hinsicht hat, aber basierend auf den Akten von Haugen gibt es eindeutig einige wichtige Mitwirkende.

Facebook macht mehr Geld, wenn Sie mehr Inhalte konsumieren. Menschen beschäftigen sich gerne mit Dingen, die eine emotionale Reaktion hervorrufen. Und je mehr Wut sie ausgesetzt sind, desto mehr interagieren sie und desto mehr konsumieren sie.“

Wut ist die Emotion, die die meisten Reaktionen und das größte Engagement auslöst, und Haugen behauptet im Wesentlichen, dass Facebook davon profitiert, indem es die Verbreitung von hasserfüllten Inhalten erleichtert, die dann als Nebenprodukt die Spaltung verstärken.

Wenn wir in einer Informationsumgebung leben, die voller wütender, hasserfüllter, polarisierender Inhalte ist, untergräbt das unser bürgerliches Vertrauen, es untergräbt unser Vertrauen ineinander, es untergräbt unsere Fähigkeit, uns umeinander kümmern zu wollen, die Version von Facebook, die es gibt heute zerreißt unsere Gesellschaften und verursacht weltweit ethnische Gewalt.

Das hat zwei Seiten, und beide können gleichermaßen richtig sein. Zum einen, so Haugen, hat Facebook eine zugrunde liegende Motivation, die Verbreitung von hasserzeugenden Inhalten zu erleichtern, was zu mehr Engagement bei seinen Nutzern führt und gleichzeitig die gesellschaftliche Spaltung verschärft – was auf Facebooks Ebene erhebliche Auswirkungen haben kann.

Andererseits führt Facebook, wie Facebook anmerkt, solche Recherchen nicht umsonst durch. Solche Probleme völlig zu ignorieren, würde bedeuten, diese Studien überhaupt nicht durchzuführen, und obwohl Zuck und Co. möglicherweise nicht so viele Maßnahmen ergreifen, wie alle Parteien möchten, gibt es Hinweise darauf, dass das Unternehmen daran arbeitet, diese anzugehen Bedenken, wenn auch auf maßvollere Weise, die im Idealfall auch die geschäftlichen Auswirkungen verringert.

Die Frage ist, ob bei solchen Folgeentscheidungen „Geschäftsauswirkungen“ berücksichtigt werden sollten?

Auch hier betreibt Facebook das größte zusammenhängende Netzwerk von Menschen in der Geschichte, daher wissen wir nicht, welche Auswirkungen sein algorithmisch beeinflusstes Teilen haben kann, da wir kein weiteres Beispiel haben, auf das wir uns beziehen können, es keinen Präzedenzfall für Facebook gibt und seine Breitenwirkung.

In gewisser Weise sollte Facebook mit seiner Größe und seinem Einfluss eigentlich ein öffentliches Versorgungsunternehmen sein, was dann die Motivation des Unternehmens ändern würde – wie Haugen feststellt:

Niemand bei Facebook ist böswillig, aber die Anreize sind falsch ausgerichtet, richtig? Zum Beispiel verdient Facebook mehr Geld, wenn Sie mehr Inhalte konsumieren. Menschen beschäftigen sich gerne mit Dingen, die eine emotionale Reaktion hervorrufen. Und je mehr Wut sie ausgesetzt sind, desto mehr interagieren sie und desto mehr konsumieren sie.

Im Kern ist dies das Hauptproblem – wir haben jetzt eine Situation, in der eines der wichtigsten Vehikel für die Verteilung und Verbreitung von Informationen nicht dadurch motiviert ist, die Menschen zuverlässig auf dem Laufenden zu halten, sondern das größtmögliche Engagement zu wecken. Und der Weg, dies zu tun, besteht darin, eine emotionale Reaktion hervorzurufen, wobei Hass und Wut zu den stärksten Motivatoren gehören, um Menschen zu einer Reaktion zu verleiten.

Untersuchungen zufolge greift fast ein Drittel der erwachsenen US -Amerikaner regelmäßig auf Nachrichteninhalte auf Facebook zu – das bedeutet, dass mindestens 86 Millionen Amerikaner direkte Einblicke in die neuesten Ereignisse von einer Plattform erhalten, die eine klare Motivation hat, ihnen die angsteinflößendsten Inhalte zu zeigen. emotional aufgeladene nimmt sich jeder Ausgabe an.

Nachrichtenverlage wissen das ebenso wie Politiker – tatsächlich haben sich laut den Facebook-Akten verschiedene politische Gruppen zu parteiischeren, spalterischeren Ansätzen in ihren Ansätzen verlagert, um den Algorithmus von Facebook zu besänftigen.

Wenn Sie das Ausmaß der Reichweite und die Auswirkungen der Plattform auf solche Nachrichten betrachten, wird deutlich, dass Facebook einen Einfluss darauf hat, wie wir uns engagieren.

Aber können wir angesichts widersprüchlicher Motivationen und der Notwendigkeit, das Engagement angesichts des zunehmenden Wettbewerbs zu maximieren, wirklich erwarten, dass Facebook seinen Ansatz zum Wohle der Allgemeinheit ändert?