YouTube delinea il suo approccio alla disinformazione di polizia e le sfide in un'azione efficace
Pubblicato: 2022-04-08Il dibattito sulla disinformazione sulle piattaforme social e su come dovrebbe essere controllata è incredibilmente complesso, senza soluzioni generali. Rimuovere le segnalazioni palesemente false sembra il passo più logico ed efficace, ma non è sempre così netto e sporgersi troppo dall'altra parte e rimuovere troppo può limitare la libertà di parola e il dibattito prezioso.
Entrambi gli approcci presentano dei pericoli e oggi Neal Mohan, Chief Product Officer di YouTube, ha fornito il suo punto di vista sulla questione e su come YouTube sta cercando di bilanciare il suo approccio alla disinformazione con la necessità di facilitare una piattaforma aperta per tutti gli utenti.
Prima di tutto, nell'affrontare in modo specifico la disinformazione medica, l'argomento chiave del momento, Mohan osserva che YouTube ha rimosso oltre un milione di video relativi alle informazioni sul coronavirus da febbraio 2020, compresi quelli che promuovono false cure o affermano che la pandemia è una bufala.
"Nel mezzo di una pandemia globale, tutti dovrebbero essere armati delle migliori informazioni disponibili per proteggere se stessi e le proprie famiglie".
Detto questo, YouTube ha facilitato la diffusione di una quantità significativa di disinformazione COVID. Lo scorso maggio, ad esempio, un controverso video anti-vax chiamato "Plandemic" è stato visto oltre 7 milioni di volte su YouTube prima di essere rimosso.
La sfida per YouTube in questo senso, come lo è con Facebook, è di portata: con così tante persone attive sulla piattaforma, tutto il tempo, è difficile per YouTube agire abbastanza rapidamente da catturare tutto in modo tempestivo e persino un un piccolo ritardo nell'applicazione può portare a milioni di visualizzazioni in più e un impatto molto maggiore.
Su questo, Mohan osserva che dei 10 milioni di video che la piattaforma rimuove ogni trimestre per violazioni delle Linee guida, la maggior parte non raggiunge nemmeno 10 visualizzazioni. Ma ancora una volta, questa è la media, e ci saranno casi come "Plandemic" che sfuggono alle crepe, qualcosa che anche Mohan riconosce.
"Le rimozioni rapide saranno sempre importanti, ma sappiamo che non sono sufficienti. Invece, è anche il modo in cui trattiamo tutti i contenuti che stiamo lasciando su YouTube che ci offre il miglior percorso da seguire".
Su questo fronte, Mohan afferma che un altro elemento dell'approccio di YouTube è garantire che le informazioni provenienti da fonti attendibili abbiano la priorità negli elementi di ricerca e scoperta dell'app, mentre successivamente cerca di ridurre la portata dei fornitori meno affidabili.
"Quando le persone ora cercano notizie o informazioni, ottengono risultati ottimizzati per la qualità, non per quanto potrebbero essere sensazionali i contenuti".
Qual è la strada giusta da percorrere: l'ottimizzazione per il coinvolgimento sembra una strada verso il pericolo in questo senso. Ma poi di nuovo, il panorama dei media moderni può anche offuscare questo, con pubblicazioni essenzialmente incentivate a pubblicare contenuti più divisivi e carichi di emozioni al fine di generare più clic.
Lo abbiamo visto all'inizio della settimana, quando i dati di Facebook hanno rivelato che questo post, dal Chicago Tribune, aveva raccolto 54 milioni di visualizzazioni dal solo coinvolgimento di Facebook nel primo trimestre di quest'anno.

Il titolo è fuorviante: alla fine è stato scoperto che il medico è morto per cause non correlate al vaccino. Ma puoi immaginare come ciò avrebbe alimentato i gruppi anti-vax su The Social Network - e alcuni, in risposta, hanno affermato che la colpa in questo caso non erano i sistemi di Facebook, che hanno facilitato l'amplificazione del post, ma lo stesso Chicago Tribune per aver pubblicato un titolo chiaramente fuorviante.

Il che è vero, ma allo stesso tempo tutte le pubblicazioni sanno cosa guida il coinvolgimento di Facebook e questo caso lo dimostra. Se vuoi massimizzare la copertura di Facebook e il traffico dei referral, i titoli emotivi e divisivi che stimolano il coinvolgimento, sotto forma di Mi piace, condivisioni e commenti, funzionano meglio. Il Tribune ha ottenuto 54 milioni di visualizzazioni da un singolo articolo, il che sottolinea un grave difetto nel sistema di incentivi per i media.
Evidenzia inoltre il fatto che anche i punti vendita "rispettabili" possono pubblicare disinformazione e contenuti che alimentano movimenti pericolosi, quindi anche con l'attenzione di YouTube sulla condivisione di contenuti da fonti attendibili, non sarà sempre una soluzione a tali problemi, in quanto tali.
Che Mohan osserva ulteriormente:
"In molti casi, la disinformazione non è chiara. Per natura, si evolve costantemente e spesso manca di una fonte primaria per dirci esattamente chi ha ragione. Come dopo un attacco, le informazioni contrastanti possono provenire da tutte le direzioni. Suggerimenti crowdsourcing hanno persino identificato il colpevole o le vittime sbagliate, con effetti devastanti. In assenza di certezza, le aziende tecnologiche dovrebbero decidere quando e dove stabilire i confini nell'oscuro territorio della disinformazione? La mia ferma convinzione è di no".
Puoi vedere, quindi, perché Mohan è riluttante a spingere per ulteriori rimozioni, una soluzione spesso sollecitata da analisti esterni, mentre Mohan sottolinea anche la crescente interferenza dei regimi oppressivi che cercano di reprimere opinioni opposte attraverso la censura della discussione online.
"Stiamo assistendo a un nuovo inquietante slancio attorno ai governi che ordinano la rimozione dei contenuti per scopi politici. E personalmente credo che la nostra società stia meglio quando possiamo avere un dibattito aperto. La disinformazione di una persona è spesso la convinzione profondamente radicata di un'altra persona, comprese le prospettive che sono provocatorie, potenzialmente offensive o, in alcuni casi, includono anche informazioni che potrebbero non superare l'esame di un fact checker".
Anche in questo caso, le risposte non sono chiare e, per le piattaforme con la portata di YouTube o Facebook, questo è un elemento significativo che richiede indagini e, ove possibile, azioni.
Ma non risolverà tutto. A volte, YouTube lascerà in sospeso le cose che dovrebbero essere rimosse, portando a potenziali problemi di esposizione e amplificazione, mentre altre volte rimuoverà i contenuti che molti ritengono avrebbero dovuto essere lasciati. Mohan non lo nega, né si sottrae alla responsabilità di ciò, ed è interessante notare la sfumatura presa in considerazione in questo dibattito quando si cerca di determinare il modo migliore per andare avanti.
Ci sono casi in cui le cose sono chiare: su consiglio degli organismi medici ufficiali, ad esempio, la disinformazione COVID-19 dovrebbe essere rimossa. Ma non è sempre così che funziona. In effetti, il più delle volte, le richieste di giudizio vengono effettuate piattaforma per piattaforma, quando probabilmente non dovrebbero esserlo. La soluzione ottimale, quindi, potrebbe essere un gruppo di supervisione più ampio e indipendente che effettua chiamate in tempo reale e guida ciascuna piattaforma nel suo approccio.
Ma anche quello potrebbe essere oggetto di abuso.
Come notato, non ci sono risposte facili, ma è interessante vedere la prospettiva di YouTube sul dibattito in evoluzione.