Facebook Whistleblower delinea motivazioni contrastanti nell'approccio dell'azienda ai contenuti delle notizie
Pubblicato: 2022-04-08Facebook è dannoso per la società e l'azienda contribuisce consapevolmente alla divisione e all'angoscia, al fine di massimizzare l'utilizzo e il profitto?
Questa è una domanda chiave che è rimasta negli ultimi anni, soprattutto dopo le elezioni americane del 2016. E ora, abbiamo alcune informazioni sul pensiero di Facebook sull'argomento: nelle ultime due settimane, il Wall Street Journal ha riportato una serie di studi interni e le risposte a tali da parte dei dirigenti di Facebook, trapelate da un ex membro dello staff di Facebook che ha cercato di esporre l'inazione dell'azienda nell'affrontare i difetti chiave nella sua progettazione.
L'ex dipendente è stato rivelato ieri sera dalla CBS essere Frances Haugen, un'esperta di progettazione algoritmica che aveva lavorato nel team di integrità civica di Facebook prima che fosse sciolto sulla scia delle elezioni statunitensi del 2020. Secondo le informazioni condivise da Haugen, Facebook ha infatti consapevolmente evitato di intraprendere azioni più forti per affrontare gli aspetti peggiori della sua piattaforma, a causa dell'impatto che tali mosse potrebbero avere sull'utilizzo e quindi sui profitti.
E mentre Facebook ha confutato le affermazioni di Haugen, le sue dichiarazioni sono in linea con ciò che molti rapporti precedenti hanno suggerito, sottolineando le preoccupazioni chiave sull'impatto sociale del colosso sociale di Zuckerberg.
La principale affermazione di Haugen è che Facebook ha consapevolmente trascurato o minimizzato i risultati, sulla base delle proprie ricerche, a favore del mantenimento dell'utilizzo e del coinvolgimento degli utenti.
Come spiegato da Haugen:
“La cosa che ho visto più e più volte su Facebook è che c'erano conflitti di interesse tra ciò che era buono per il pubblico e ciò che era buono per Facebook. E Facebook, più e più volte, ha scelto di ottimizzare per i propri interessi, come fare più soldi".
Il che, in una certa misura, ha senso: Facebook è, dopo tutto, un business e, in quanto tale, è guidato dal profitto e offre il massimo valore ai suoi azionisti.
Il problema, nel caso di Facebook, è che gestisce l'ultima rete interconnessa di esseri umani della storia, avvicinandosi a 3 miliardi di utenti, molti dei quali utilizzano l'app per tenersi informati, su vari fronti, e raccogliere informazioni chiave sulle notizie della giornata. In quanto tale, ha un potere significativo di influenzare l'opinione.
Ciò significa, come osserva Haugen, che le sue decisioni possono avere un grande impatto.
“ Facebook guadagna di più quando consumi più contenuti. Alle persone piace interagire con cose che suscitano una reazione emotiva. E più rabbia a cui vengono esposti, più interagiscono e più consumano. "
In effetti, tra i vari risultati evidenziati nei file Facebook di Haugen, le migliaia di documenti interni che ha sostanzialmente contrabbandato fuori dal quartier generale di Facebook, ci sono suggerimenti che Facebook ha:
- Ha trascurato la prevalenza e l'impatto dell'incitamento all'odio sulle sue piattaforme, poiché tali contenuti generano anche un maggiore coinvolgimento tra gli utenti
- Ha minimizzato gli impatti negativi di Instagram sui giovani utenti, con i risultati che mostrano che la piattaforma amplifica l'immagine corporea negativa
- Impossibile affrontare le principali preoccupazioni relative all'utilizzo di Facebook nelle regioni in via di sviluppo, in parte a causa dell'analisi costi/benefici
- Impossibile affrontare la diffusione di contenuti anti-vaccino
Anche in questo caso, molti di questi elementi sono stati ampiamente riportati altrove, ma i file di Haugen forniscono prove dirette che Facebook è davvero ben consapevole di ciascuno di questi aspetti e ha scelto, a volte, di non agire o di intraprendere significative contromisure, in gran parte a causa in conflitto con i propri interessi commerciali.
Il team di PR di Facebook ha lavorato duramente per contrastare tali affermazioni, fornendo risposte punto per punto a ciascuno dei rapporti sui file di Facebook, osservando che l'esistenza di questi rapporti di ricerca, di per sé, mostra che Facebook sta lavorando per affrontare tali preoccupazioni e combattere questi elementi problematici.
Facebook indica varie modifiche apportate su Instagram per fornire maggiore protezione e opzioni di controllo per gli utenti, mentre Facebook sta anche lavorando per migliorare il ranking del suo algoritmo per limitare l'esposizione a contenuti divisivi e che inducono angoscia.

Ma allo stesso tempo, Facebook ha minimizzato gli impatti di questo su scala più ampia.
In qualità di vicepresidente per le politiche e gli affari globali di Facebook, Nick Clegg ha notato che Facebook ha svolto un ruolo chiave nel contribuire alle proteste post-elettorali al Campidoglio.
"Penso che l'affermazione [che] il 6 gennaio possa essere spiegata a causa dei social media, penso solo che sia ridicolo".
Il punto di vista di Clegg è che Facebook è solo una piccola parte di un più ampio cambiamento sociale e che semplicemente non può essere il problema principale che porta a un conflitto così grande, in varie regioni.
È impossibile sapere quale sia l'impatto di Facebook in questo senso, ma chiaramente, sulla base dei file di Haugen, ci sono alcuni contributori chiave lì.
“ Facebook guadagna di più quando consumi più contenuti. Alle persone piace interagire con cose che suscitano una reazione emotiva. E più rabbia a cui vengono esposti, più interagiscono e più consumano".
La rabbia è l'emozione che suscita più risposte, più coinvolgimento e Haugen essenzialmente sostiene che Facebook ne tragga vantaggio, facilitando la diffusione di contenuti che ispirano odio che poi, come sottoprodotto, amplificano la divisione.
“ Quando viviamo in un ambiente informativo pieno di contenuti arrabbiati, pieni di odio e polarizzanti, erode la nostra fiducia civica, erode la nostra fiducia reciproca, erode la nostra capacità di volerci prenderci cura l'uno dell'altro, la versione di Facebook che esiste oggi sta lacerando le nostre società e provocando violenza etnica in tutto il mondo. "
Ci sono due aspetti in questo, ed entrambi possono essere ugualmente corretti. Uno, come osserva Haugen, è che Facebook ha una motivazione di fondo per facilitare la diffusione di contenuti che inducono all'odio, il che stimola un maggiore coinvolgimento tra i suoi utenti, esacerbando anche la divisione sociale – che, su scala di Facebook, può avere un impatto significativo.
D'altra parte, come osserva Facebook, non conduce tali ricerche per niente. Chiudere completamente gli occhi su tali problemi significherebbe non condurre affatto questi studi e, sebbene Zuck e Co. potrebbero non intraprendere tutte le azioni che vorrebbero tutte le parti, ci sono prove che suggeriscono che l'azienda sta lavorando per affrontare questi problemi preoccupazioni, sebbene in un modo più misurato che, idealmente, riduca anche l'impatto sul business.
La domanda è: "l'impatto sul business" dovrebbe essere preso in considerazione in tali decisioni consequenziali?
Anche in questo caso, Facebook gestisce la più grande rete interconnessa di persone della storia, quindi non sappiamo quali possano essere gli impatti completi della sua condivisione influenzata dagli algoritmi, perché non abbiamo un altro esempio a cui fare riferimento, non ci sono precedenti per Facebook e il suo impatto più ampio.
In un certo senso, Facebook, nella sua portata e influenza, dovrebbe essere davvero un'utilità pubblica, che cambierebbe poi le motivazioni dell'azienda – come osserva Haugen:
“ Nessuno su Facebook è malevolo, ma gli incentivi sono disallineati, giusto? Mi piace, Facebook guadagna di più quando consumi più contenuti. Alle persone piace interagire con cose che suscitano una reazione emotiva. E più rabbia a cui vengono esposti, più interagiscono e più consumano. "
Fondamentalmente, questo è il problema principale: ora abbiamo una situazione in cui uno dei veicoli chiave per la distribuzione e la diffusione delle informazioni non è motivato dal mantenere le persone informate in modo affidabile, ma suscitando il maggior coinvolgimento possibile. E il modo per farlo è incitare alla risposta emotiva, con l'odio e la rabbia tra i più potenti motivatori per indurre le persone a reagire.
Secondo una ricerca, quasi un terzo degli adulti statunitensi accede regolarmente ai contenuti delle notizie su Facebook , il che significa che almeno 86 milioni di americani stanno ottenendo informazioni dirette sugli ultimi avvenimenti da una piattaforma che ha una chiara motivazione per mostrare loro il più angosciante, emotivamente affronta ogni problema.
Anche gli editori di notizie lo sanno, così come i politici: infatti, secondo i file di Facebook, vari gruppi politici sono passati a approcci più partigiani e divisivi per placare l'algoritmo di Facebook.
Se si considera la portata e l'impatto che la piattaforma ha su tale messaggistica, è chiaro che Facebook ha un'influenza sul modo in cui ci impegniamo.
Ma con motivazioni contrastanti e la necessità di massimizzare il coinvolgimento di fronte alla crescente concorrenza, possiamo davvero aspettarci che Facebook cambi il suo approccio per il bene comune?