La Commissione europea sta esortando le piattaforme digitali ad alzare l’asticella nella lotta contro la disinformazione sotto l’egida del Digital Services Act. Nel mentre, quelle che hanno aderito al Codice di condotta sulla disinformazione pubblicano i risultati delle loro analisi. Verso lo stress test
Con le elezioni europee all’orizzonte, e il relativo carico di preoccupazioni per la minaccia disinformazione, Bruxelles ha deciso di muoversi proattivamente e pungolare le piattaforme digitali per arrivare il più preparata possibile alla sfida. Martedì la Commissione europea le ha esortate ad applicare pienamente le provvigioni in materia contenute nel Digital Services Act per limitare la diffusione di disinformazione, fornendo una serie di linee guida. E ha ricordato che in caso di inadempienza rischiano una multa che può arrivare fino al 6% del fatturato globale.
“Sappiamo che il periodo elettorale che si sta aprendo nell’Unione europea sarà bersagliato da attacchi ibridi o da interferenze straniere di ogni tipo. Non possiamo avere misure a metà”, ricordava a febbraio il commissario per il Mercato interno Thierry Breton. Le piattaforme devono utilizzare tutti gli strumenti a loro disposizione per garantire che le infosfere europee rimangano libere ed eque, ha reiterato martedì. “Non si tratta solo di conformità, ma di salvaguardare le fondamenta stesse delle nostre democrazie”.
La richiesta – parallela a quella statunitense – è quella di mitigare i rischi di disinformazione elettorale, che da quest’anno si può avvalere del potenziamento dell’intelligenza artificiale, evitando che i contenuti falsificati possano diventare virali e arginando le campagne di influenza coordinate, come le ondate di bot e le finte testate. All’atto pratico serve garantire che gli annunci politici e i deepfake siano chiaramente etichettati come tali e occorre che le piattaforme istituiscano squadre specializzate, con risorse sufficienti per monitorare le potenziali minacce e le narrazioni che proliferano in alcuni Paesi europei, racconta Politico.
La Commissione ha suggerito alle aziende di predisporre una serie di strumenti, come gli avvisi pop-up, quando gli utenti sono sul punto di condividere bufale sfatate, nonché predisporre procedure di emergenza per quando un deepfake di un leader europeo diventa virale. Le piattaforme dovranno anche garantire contenuti diversificati, per evitare che gli algoritmi di suggerimento dei contenuti ne servano una serie via via più estrema (come sembra essere accaduto con Youtube in prossimità delle elezioni finlandesi). E soprattutto dedicare le dovute risorse a tutte le lingue parlate nell’Ue.
Alle aziende è lasciata ampia discrezionalità su come implementare queste linee guida, anche se quelle che non seguono i suggerimenti “devono dimostrare alla Commissione che le misure adottate sono ugualmente efficaci”, ha dichiarato l’esecutivo europeo in un comunicato stampa. Bruxelles starebbe pianificando anche degli stress test per fine aprile, in modo da testare la reattività delle grandi piattaforme – in linea con quanto richiesto da alcune delle stesse, tra cui Meta, TikTok e X. Quest’ultima è già sotto procedimento formale per inadempienze in materia di moderazione, stessa sorte capitata al social network cinese.
Tolta la piattaforma di Elon Musk, gran parte delle altre (incluse Microsoft e Google) avevano già aderito al Codice volontario di condotta sulla disinformazione. E nella stessa giornata in cui Bruxelles le ha esortate ad alzare l’asticella in materia di fake news, i firmatari hanno pubblicato la terza serie di rapporti semestrali con cui illustrano le azioni intraprese per combattere la diffusione della disinformazione, con particolare attenzione alla varietà elettorale.
I passi sono nella direzione giusta, ma non paiono ancora sufficienti. Come rimarca il mondo accademico – da un rapporto ad hoc del Carnegie Endowment for International Peace alle parole del ricercatore Walter Quattrociocchi apparse su queste colonne – la visione che danno del loro funzionamento interno è ancora troppo opaca. Sembra della stessa idea Vera Jourovà, commissaria alla Trasparenza, che ha esortato le piattaforme a “intensificare gli sforzi per essere preparate e rispondere rapidamente alle minacce di manipolazione delle informazioni e di disinformazione straniera durante le elezioni”.