Le piattaforme sociali stanno affrontando una maggiore regolamentazione in più regioni - Ma è un progresso?

Pubblicato: 2022-04-08

Il 2022 sarà un anno fondamentale per la regolamentazione delle piattaforme di social media?

È ancora difficile determinare come funzioneranno effettivamente i vari approcci proposti alla legislazione sui social media e quale impatto avranno, ma con il Regno Unito che delinea la sua ultima spinta per ritenere le piattaforme social più responsabili per i contenuti che ospitano, il movimento per il cambiamento normativo è in crescita, il che probabilmente costituirà un punto chiave del dibattito nel prossimo anno.

La proposta del Regno Unito "Online Safety Bill", annunciata oggi, delinea nuove tutele per i giovani utenti e normative più severe su annunci falsi e truffe per proteggere meglio i consumatori online.

Come spiegato dalla BBC:

Il rapporto raccomanda inoltre che venga creata un'ampia gamma di nuovi reati penali, sulla base delle proposte della Commissione di legge, e inseriti nel disegno di legge, tra cui la promozione o " incitamento" alla violenza contro le donne, o basati sul genere o sulla disabilità e k ora diffondendo disinformazione gravemente dannosa

In sostanza, il disegno di legge mira a implementare sanzioni più severe per le piattaforme social per garantire che siano ritenute più responsabili dell'applicazione, al fine di affrontare le crescenti preoccupazioni sull'influenza della comunicazione e della connessione digitale. Ma restano domande su come, esattamente, tali regolamenti possano essere applicati efficacemente, con molto che si riduce a ciò che è considerato "ragionevole" per quanto riguarda i tempi di risposta quando si affrontano tali reclami.

Vari gruppi di regolamentazione hanno cercato di implementare regole simili e sanzioni esecutive, imponendo parametri più chiari su ciò che le piattaforme social dovrebbero fare in risposta ai reclami ufficiali. Ma Meta ha generalmente potuto sostenere che non ci si può ragionevolmente aspettare che rimuova il contenuto entro, diciamo, 24 ore a meno che non ne sia a conoscenza. Quando viene emesso un reclamo ufficiale, tale risposta può essere emanata, ma spesso il danno è causato da contenuti che non hanno suscitato preoccupazione iniziale, il che rende difficile un'applicazione veramente efficace.

Da parte sua, Meta ha ripetutamente delineato la sua continua spinta al miglioramento su questo, attraverso i suoi regolari Community Standards Enforcement Reports, ma permangono divari tra le aspettative della comunità e del governo e la capacità realistica di agire, dato che tutti gli utenti possono pubblicare ciò che vogliono, in in tempo reale e i sistemi automatizzati, pur migliorando, non possono catturare tutto prima che qualcuno lo veda.

Le argomentazioni si riducono quindi a ciò che è ragionevole, a ciò che è possibile nell'applicazione e all'azione e, ancora, alla disconnessione rimanente tra ciò che le autorità di regolamentazione si aspettano e ciò che le piattaforme social, data la loro natura in tempo reale, possono fornire.

È possibile superare tali prospettive e, cosa più importante, sanzioni più severe miglioreranno effettivamente quella situazione in qualche modo?

È difficile dirlo su base generale, ma ci sono altri elementi in cui Meta può essere ritenuta responsabile e in cui sembra destinata ad affrontare ancora più pressioni nel prossimo anno poiché i governi cercano più modi per prendere in mano la situazione e esercitare il controllo dove possono.

Un elemento chiave su questo fronte è la condivisione dei dati degli utenti e l'accessibilità degli stessi alle forze dell'ordine. In questo momento, Meta si sta muovendo verso l'implementazione della crittografia end-to-end come standard in tutte le sue app di messaggistica (Messenger, WhatsApp e Instagram Direct), che secondo varie autorità offrirà protezione per attività criminali bloccando potenziali rilevamenti e misure di intercettazione.

Meta afferma che sta lavorando per allinearsi alle crescenti aspettative sulla privacy dei dati, ma vari governi stanno ora cercando di implementare nuove misure per bloccare i suoi piani di crittografia o stabilire nuovi metodi per estrarre i dati degli utenti dalle piattaforme social.

Ad esempio, il governo australiano ha recentemente annunciato una nuova legislazione che obbligherebbe essenzialmente le società di social media a rivelare l'identità degli account di troll anonimi, offrendo un percorso per azioni legali contro questi utenti.

Secondo The Guardian:

"Secondo la legislazione, le leggi richiederebbero alle società di social media di raccogliere dati personali degli utenti attuali e nuovi e consentire ai tribunali di accedere all'identità degli utenti per avviare casi di diffamazione. "

Il che è di per sé imperfetto, poiché le piattaforme social attualmente non impongono l'identità dell'utente e allegano informazioni di contatto del mondo reale agli account, in quanto tali. Se attuato, ciò costringerebbe essenzialmente le piattaforme a confermare le informazioni del mondo reale di milioni di utenti, il che sarebbe di per sé un'impresa importante, e questo prima ancora di considerare le implicazioni della libertà di parola e dell'applicazione della legge.

L'Alta Corte australiana ha anche approvato l'interpretazione legale che pone più oneri alle società di media per quanto riguarda l'incitamento a commenti diffamatori sulle loro pagine Facebook. Alcuni hanno suggerito che ciò vedrà i media ritenuti legalmente responsabili per tutti i commenti sui loro profili sui social media, ma i dettagli effettivi del caso sono molto più sfumati, con un collegamento diretto richiesto tra incitamento e azione per cercare un ricorso legale.

Che, in realtà, è dove tutti questi approcci legislativi e normativi si ingarbugliano: l'interpretazione tra causa ed effetto effettivi e come funziona in senso legale quando si considera il discorso online. Le piattaforme social hanno cambiato i paradigmi della comunicazione, fornendo a tutti una piattaforma da ascoltare, con l'immediatezza del formato che sostanzialmente rende impossibile l'applicazione, poiché non c'è moderazione tra utente e output.

E con miliardi di utenti, non è possibile per nessuna piattaforma moderare tutti i commenti su larga scala, il che significa che le sanzioni basate sul tempo per la risposta ai reclami ufficiali sono davvero l'unico meccanismo per far rispettare tali regole e anche le interpretazioni tecniche al riguardo lasciano un molto spazio per il dibattito.

Quindi, mentre sembra che i muri normativi si stiano chiudendo attorno alle piattaforme social, in realtà, molte aree grigie rimangono all'interno di ogni approccio. E mentre i governi sono desiderosi di proporre le loro "soluzioni", soprattutto in vista delle rispettive elezioni, data la più ampia attenzione alla disinformazione e agli abusi sui social media, sembra ancora che siamo lontani da un progresso concreto e solido .

Vari approcci stanno generando alcuni risultati, ma è necessario stabilire un approccio normativo internazionale più uniforme al discorso digitale e all'applicazione per definire parametri e aspettative chiari su tutta la linea, in tutte le regioni, che idealmente includeranno anche parametri relativi all'amplificazione algoritmica e il ruolo che svolge nel potenziare determinati elementi.

La varianza tra l'importanza, per il guadagno politico, e l'azione effettiva ed efficace sta offuscando il vero progresso su questi elementi chiave.