Trovare risposte ai problemi identificati nelle ultime perdite di Facebook sarà un processo complesso
Pubblicato: 2022-04-08Quindi cosa abbiamo imparato dall'ultima divulgazione di documenti e ricerche interne di Facebook?
Beh, non molto, davvero. L'ex ingegnere di Facebook Frances Haugen ha pubblicato il mese scorso una serie iniziale di rapporti interni da The Social Network, che ha delineato varie preoccupazioni, comprese le sue difficoltà nella gestione dei contenuti anti-vaccino, gli impatti dannosi delle modifiche al suo algoritmo e gli effetti negativi sulla salute mentale di Instagram sugli adolescenti.
Haugen ha pubblicato un altro gruppo di rapporti questa settimana, attraverso uno sforzo coordinato con varie importanti pubblicazioni, che espandono queste affermazioni iniziali e aggiungono maggiori dettagli su vari aspetti. E tutto ciò è interessante, senza dubbio, tutto fa luce su ciò che Facebook sa dei suoi sistemi e su come possono seminare divisione e angoscia e il loro più ampio impatto sulla società. Ma le rivelazioni, inoltre, sottolineano ampiamente ciò che già sapevamo o sospettavamo. Che la mancanza di supporto nella lingua locale di Facebook ha portato a un aumento dei danni in alcune regioni, che la sua rete è utilizzata per attività criminali, inclusa la tratta di esseri umani, e che Facebook potrebbe aver dato la priorità alla crescita rispetto alla sicurezza in alcuni processi decisionali.
Tutto questo era ampiamente noto, ma il fatto che anche Facebook lo sappia, e che la sua stessa ricerca lo confermi, è significativo e porterà a una serie completamente nuova di azioni intraprese contro The Social Network, in forma diversa.
Ma ci sono altre note preziose di cui non eravamo a conoscenza che si nascondono tra le migliaia di pagine di approfondimenti di ricerca interna.
Un elemento chiave, evidenziato dal giornalista Alex Kantrowitz, riguarda in particolare il controverso algoritmo del feed di notizie e il modo in cui Facebook ha lavorato per bilanciare le preoccupazioni con l'amplificazione dei contenuti attraverso vari esperimenti.
La soluzione principale promossa da Haugen nel suo discorso iniziale al congresso sulla fuga di file di Facebook è che i social network dovrebbero essere costretti a smettere del tutto di utilizzare algoritmi basati sul coinvolgimento, attraverso le riforme delle leggi della Sezione 230, che, secondo Haugen, cambierebbero gli incentivi per il coinvolgimento della piattaforma sociale e ridurre i danni causati dai loro sistemi.
Come spiegato da Haugen :
"Se avessimo un'adeguata supervisione, o se avessimo riformato la [Sezione] 230 per rendere Facebook responsabile delle conseguenze delle loro decisioni intenzionali sulla classifica, penso che si libererebbero della classifica basata sul coinvolgimento".
Ma funzionerebbe?
Come riportato da Kantrowitz, Facebook ha effettivamente condotto un esperimento per scoprire:
“Nel febbraio 2018, un ricercatore di Facebook ha quasi spento l'algoritmo di classificazione del feed di notizie per lo 0,05% degli utenti di Facebook. "Cosa succede se eliminiamo il feed di notizie classificato?" hanno chiesto in un rapporto interno riassumendo l'esperimento. Le loro scoperte: senza un algoritmo del feed di notizie, il coinvolgimento su Facebook diminuisce in modo significativo, le persone nascondono il 50% in più di post, i contenuti dei gruppi di Facebook salgono in cima e, sorprendentemente, Facebook guadagna ancora di più dagli utenti che scorrono il feed di notizie."
L'esperimento ha mostrato che senza l'algoritmo per classificare i contenuti in base a vari fattori diversi, gli utenti hanno trascorso più tempo a scorrere per trovare post pertinenti, esponendoli a più annunci, mentre hanno finito per nascondere molti più contenuti, il che, quando stai guardando un feed cronologico, non ha il vantaggio continuo di ridurre la probabilità che tu veda più o meno lo stesso in futuro. Il contenuto dei gruppi è aumentato perché gli utenti sono più coinvolti nei gruppi (ovvero ogni volta che qualcuno pubblica un aggiornamento in un gruppo di cui sei membro, potresti mostrarlo nel tuo feed), mentre molti più commenti e Mi piace dei tuoi amici guidano ai post della Pagina che appaiono nei feed degli utenti.

Quindi un complessivamente negativo, e non la soluzione che alcuni hanno propagandato. Naturalmente, parte di questo si basa anche sul comportamento abituale, in quanto, alla fine, gli utenti probabilmente smetterebbero di seguire determinate Pagine e persone che pubblicano molto, lascerebbero determinati gruppi a cui non sono così interessati e loro" d imparare nuovi modi per controllare il loro feed. Ma questo è un grande sforzo manuale da parte degli utenti di Facebook e il coinvolgimento di Facebook ne risentirebbe.
Puoi capire perché Facebook sarebbe riluttante ad accettare questa opzione, mentre le prove qui non indicano necessariamente che il feed sia di conseguenza meno divisivo. E questo prima che tu tenga conto del fatto che anche i truffatori e le pagine imparerebbero a giocare con questo sistema.
È una visione interessante di un elemento chiave del più ampio dibattito sull'impatto di Facebook, con l'algoritmo spesso identificato come la cosa che ha l'impatto più negativo, concentrandosi sui contenuti che stimolano il coinvolgimento (cioè l'argomento) al fine di mantenere le persone sulla piattaforma per più lungo.
È vero? Voglio dire, c'è chiaramente un caso da sostenere che i sistemi di Facebook ottimizzino i contenuti che potrebbero indurre gli utenti a pubblicare, e il modo migliore per innescare una risposta è attraverso la reazione emotiva, con rabbia e gioia che sono i motivatori più forti. Sembra probabile, quindi, che gli algoritmi di Facebook, intenzionalmente o meno, amplifichino i post argomentativi, il che può aumentare la divisione. Ma l'alternativa potrebbe non essere molto migliore.
Allora qual è il modo migliore per andare avanti?
Questo è l'elemento chiave su cui dobbiamo concentrarci ora. Sebbene queste informazioni interne facciano più luce su ciò che Facebook sa e sui suoi impatti più ampi, è importante anche considerare quali potrebbero essere i prossimi passi e come possiamo implementare migliori salvaguardie e processi per migliorare il coinvolgimento sui social media.
Cosa che Facebook sta cercando di fare, come ha notato il CEO di Facebook Mark Zuckerberg in risposta alla fuga di notizie iniziale di Facebook Files.
“ Se volessimo ignorare la ricerca, perché dovremmo creare un programma di ricerca leader del settore per comprendere in primo luogo queste importanti questioni? Se non ci interessava combattere i contenuti dannosi, allora perché dovremmo assumere così tante più persone dedicate a questo rispetto a qualsiasi altra azienda nel nostro spazio, anche quelle più grandi di noi? "
Facebook sta chiaramente esaminando questi elementi. La preoccupazione quindi si riduce a dove risiedono veramente le sue motivazioni, ma anche, secondo questo esperimento, cosa si può fare per risolverlo. Perché la rimozione completa di Facebook non accadrà, quindi quali sono i modi in cui possiamo guardare per utilizzare queste informazioni per costruire un forum pubblico più sicuro, più aperto e meno divisivo?
Questa è una domanda molto più difficile a cui rispondere e una preoccupazione più profondamente riflessiva rispetto a molte delle notizie iperboliche su Facebook come il cattivo.