Le norme dovrebbero permettere agli utenti di segnalare i discorsi dannosi, ma anche fornire rimedi chiari che assicurino un equilibrio di potere tra cittadini, piattaforme e Stati. Indipendentemente dal regime. L’analisi di Tanya Lokot e Mariëlle Wijermars (Cepa)
La nuova legge russa che incarica le aziende di social media di trovare e rimuovere “contenuti illegali” crea un pericoloso precedente per altri regimi autoritari – e democratici.
Anche se gli sforzi del Cremlino per creare un internet sovrano e i suoi scontri con le aziende tecnologiche internazionali sul rispetto delle leggi locali hanno attirato l’attenzione internazionale, la legge sull’autocensura dei social media del Paese, entrata in vigore il 1 febbraio 2021, è passata quasi inosservata. Questa è una svista pericolosa.
Si stanno sviluppando dibattiti accesi sulle iniziative di regolamentazione rivolte alle aziende di social media nei paesi democratici, come il Digital Services Act dell’Ue e il progetto di legge britannico sulla sicurezza online. L’esempio russo chiarisce come l’imposizione di responsabilità per il controllo dei contenuti online sulle piattaforme crea un terreno fertile per la violazione dei diritti dei cittadini.
La nuova legge russa sui social media richiede alle piattaforme con più di 500.000 utenti giornalieri in Russia di identificare proattivamente e rimuovere i contenuti proibiti dalla legge russa. Questo include materiali come la pornografia infantile e altre informazioni che “incitano i minori ad attività illegali o pericolose”. Comprende anche contenuti ritenuti “dannosi o osceni”, o irrispettosi del governo, dei simboli di Stato e dei funzionari governativi. Ci si aspetta che le piattaforme trovino e blocchino “gli incitamenti al disordine di massa, all’estremismo, al terrorismo e alla partecipazione a eventi pubblici non autorizzati”.
Se le piattaforme di social media non si conformano, rischiano multe massicce (fino a un decimo delle loro entrate annuali) e possono essere bloccate. Fino all’entrata in vigore della nuova legge, il regolatore internet russo Roskomnadzor presentava richieste di rimozione alle piattaforme e doveva fornire prove che il contenuto in questione violasse la legge. Il nuovo modello aggira questo passo in più, lasciando l’onere di determinare se un post è potenzialmente illegale alle piattaforme stesse.
Il cambiamento è problematico. Delega la funzione di censura alle piattaforme mentre rafforza il controllo statale sull’espressione online. Le definizioni disponibili di ciò che qualifica come contenuto “illegale” sono vaghe, soprattutto quando si tratta di discorso politico. Questo mette le aziende di social media in una situazione di “Catch-22”, poiché è praticamente impossibile per loro aderire alle nuove regole.
Nel febbraio 2021, per esempio, Roskomnadzor ha richiesto la rimozione di notizie che riguardavano le torce e le veglie con le candele a sostegno del leader dell’opposizione incarcerato Alexey Navalny, sostenendo che queste “contenevano incitamenti al disordine di massa e ai raduni di massa non autorizzati”.
Secondo il rapporto sulla trasparenza di Google, la Russia è dietro il 60% di tutte le richieste di rimozione di contenuti alla società negli ultimi dieci anni; gli enti governativi hanno presentato un record di 123.000 richieste per rimuovere oltre 950.000 pezzi di contenuto, soprattutto da Google Search e YouTube. Facebook e Twitter hanno visto una dinamica simile.
Data questa marea di richieste, le piattaforme potrebbero anticipare di dover rimuovere un numero significativo di contenuti in Russia. Combinato con i criteri vaghi per ciò che si qualifica come illegale o dannoso, questo incoraggerà le piattaforme a censurare eccessivamente. Ignorare le richieste di rimozione, come le piattaforme hanno fatto in passato, non sembra più una strategia praticabile.
Moderare i contenuti che contengono umorismo, sarcasmo o ironia (come capita spesso nel discorso politico) è notoriamente difficile. Le piattaforme hanno riconosciuto che questo compito diventa ancora più difficile quando sono in gioco barriere linguistiche e culturali. Le aziende di social media hanno precedenti scadenti sul prendere sul serio la moderazione dei contenuti. In definitiva, gli utenti russi dei social media – che hanno pochi diritti di ricorso quando i loro contenuti o i loro account vengono bloccati – sono quelli che hanno più da perdere.
Se accettiamo che l’obiettivo finale della Russia è quello di spingere le compagnie straniere di social media fuori dal Paese, come parte della sua strategia di internet sovrano, la nuova legislazione dà loro il pretesto. Queste decisioni politiche rappresentano una minaccia non solo per Facebook, YouTube o Twitter, ma anche per le piattaforme più piccole che stanno emergendo come spazi per il discorso politico, come Telegram e TikTok.
La delega della responsabilità di vigilare sul discorso “dannoso” alle piattaforme è problematica, e non solo in Russia. La nuova legge dà al Cremlino più influenza sulle piattaforme straniere, ma la loro quota di mercato è limitata. Tuttavia, nei Paesi in cui queste piattaforme sono dominanti, esse esercitano un’influenza significativa. Quali sarebbero le conseguenze se i governi facessero pressione su di loro per moderare i contenuti – e li ritenessero responsabili degli errori, indipendentemente dalla scala, dall’ambiguità o dai conflitti con le norme internazionali sui diritti umani?
Le piattaforme non dovrebbero essere gli unici arbitri della libertà di parola e di espressione online, poiché queste norme dovrebbero essere stabilite attraverso un processo inclusivo di consultazione. Ma non dovrebbero nemmeno seguire la linea dello Stato sotto la pressione del governo (come è successo con Facebook quando ha censurato i contenuti “anti-statali” in Vietnam). Un numero crescente di incidenti dimostra che le piattaforme cercano di “minimizzare le ricadute politiche” piuttosto che dare priorità alla libera espressione e alla trasparenza. La minaccia di grandi multe incentiva ulteriormente la limitazione della libertà di parola.
Le piattaforme esercitano troppo potere nel plasmare le norme di espressione online. Ma dobbiamo anche chiedere conto ai legislatori e ai regolatori, sia nelle autocrazie che nelle democrazie, di assicurarsi che le strutture legali che governano gli spazi online siano “chiare e accessibili a tutti” e diano potere ai cittadini invece di trasformarli in strumenti politici. Queste norme dovrebbero permettere agli utenti di segnalare discorsi dannosi, ma anche fornire rimedi chiari che assicurino un equilibrio di potere tra cittadini, piattaforme e Stati – indipendentemente dal regime.
Tanya Lokot è professore associato in Media digitali e società presso la Scuola di comunicazione dell’Università di Dublino. Fa ricerca sulle minacce ai diritti digitali, sull’autoritarismo in rete, sulla libertà della rete e sulla governance di internet nell’Europa dell’Est.
Mariëlle Wijermars è assistente professoressa di Cibersicurezza e politica alla Facoltà di Arti e Scienze Sociali dell’Università di Maastricht. Conduce ricerche sulla governance algoritmica, sulla libertà dei media e sulle implicazioni della politica di Internet per i diritti umani.
L’articolo originale è apparso sul sito del think tank Center for European Policy Analysis (CEPA)