Skip to main content

Tempesta disinformazione, come gestire l’ingestibile?

Di Irene Sánchez e Angela Ziccardi

Quale ruolo può svolgere l’Europa contro la disinformazione? Ecco cosa dice il Report del primo Strategy Group del progetto “Towards an open, free and global internet”, finanziato dalla Fondazione Compagnia di San Paolo e organizzato da Ecfr in collaborazione con Formiche.net e con il supporto di Google

Il 3 giugno 2024, lo European Council on Foreign Relations ha ospitato il primo Strategy Group del progetto “Towards an open, free and global internet”, finanziato dalla Fondazione Compagnia di San Paolo ed organizzato in collaborazione con Formiche.net con il supporto di Google. Il progetto prevede l’organizzazione di tre Strategy Group per fornire idee e proposte di policy sul ruolo che l’Europa può svolgere nel medio e lungo termine nella competizione tecnologica globale, con un focus particolare sulle sfide poste dall’invasione russa dell’Ucraina.

Il primo Strategy Group, dal titolo “Disinformation Storm: Managing the Unmanageable?”, si è tenuto a Roma. Il workshop si è strutturato in due panel: il primo sul lavoro svolto dall’Ue negli ultimi 5 anni per combattere la disinformazione; il secondo sotto forma di esercizio di analisi di scenario in vista delle elezioni europee 2024, per identificare e anticipare possibili nuove tattiche, tendenze, temi e strumenti di disinformazione, formulando raccomandazioni politiche per il prossimo mandato europeo (2024-2029). L’incontro ha visto la partecipazione di 25 esperti italiani ed europei provenienti da diverse realtà, tra cui Ecfr, il ministero degli Affari Esteri e della Cooperazione Internazionale, il Seae, Bertelsmann Stiftung, Università di Torino, T6 Ecosystems, IEP@BU Institute for Policy Making, Osservatorio Edmo, Globsec, Università Luiss, Alliance 4 Europe, Ispi, Fidu-Federazione Italiana per i Diritti Umani, NewsGuard Technologies, Alto Intelligence, Google, Konrad Adenauer Stiftung (Kas).

Disinformazione: lo stato dell’arte

Avere a che fare con la disinformazione oggi, sia nel settore pubblico che in quello privato, porta ad ammettere sempre più di essere di fronte ad un gioco infinito, in cui le regole cambiano costantemente senza soluzioni immediate e a breve termine. Allo stesso tempo, rispetto ad alcuni anni fa, vi è una maggiore consapevolezza dei rischi associati alla disinformazione. Sia i governi che i cittadini riconoscono con più frequenza che stiamo assistendo a minacce esistenziali, con il rischio di una militarizzazione della disinformazione.

In questo scenario, considerare la distinzione tra misinformazione e disinformazione è cruciale. La prima sfugge al controllo di Stati e istituzioni e nasce in maniera autonoma nella società. La seconda, invece, consiste in un uso intenzionalmente manipolativo dell’informazione. Partire da questa distinzione è essenziale per capire come affrontare i fenomeni, che richiedono risposte diverse.

Noi, come società, governi e aziende non riusciamo ancora a comprendere la reale natura della disinformazione, che rientra nell’ambito delle cosiddette minacce ibride – ed è spesso associata a campagne cibernetiche e cinetiche. Le tattiche di manipolazione dell’informazione ricadono al di sotto della soglia di rilevamento e attribuzione, come un gas tossico che avvelena gradualmente l’ecosistema informativo fino al soffocamento. Inoltre, le campagne cibernetiche e cinetiche avvengono in maniera coordinata attraverso molteplici domini di disinformazione, a volte diffondendosi anche tramite campagne fisiche. Per questa ragione, parlare di disinformazione a compartimenti stagni e in modo isolato non ha senso, e la mancata comprensione del quadro generale ostacola l’articolazione di una strategia globale per affrontare l’apparato disinformativo.

L’ecosistema informativo si è evoluto rispetto a 5 anni fa, a livello normativo, tecnico e sociale. Se in passato la ricerca di materiale disinformativo si concentrava maggiormente su tweet e testi, ora sono per lo più i contenuti multimediali ingannevoli, come i video, a dover essere vagliati. Inoltre, la produzione di materiale di disinformazione è divenuta più economica ed alla portata di tutti. Con la proliferazione delle piattaforme, la quantità di informazioni richieste per l’analisi dei contenuti è ora enorme dal punto di vista della ricerca e richiede una letteratura già approfondita. Stiamo facendo molto di più, ma il livello dei materiali è cambiato.

La velocità con cui le campagne di disinformazione si propagano rende difficile fermarne la diffusione. L’intelligenza artificiale ha poi aumentato la portata e il ritmo delle campagne di manipolazione informativa nell’ecosistema digitale. Solo per fare un esempio, ci vogliono circa sei mesi per smantellare alcune fonti di notizie false. Nel fare ciò, si rischia anche uno scontro con la libertà di parola, pilastro democratico delle nostre società. Perciò, le misure di contrasto alla disinformazione devono essere ben calibrate, affinché non sfocino in accuse di censura.

Le campagne disinformative prendono di mira anche attori e meccanismi internazionali, spesso mettendo in dubbio l’utilità delle sanzioni internazionali. Queste pratiche hanno un impatto negativo sullo Stato di diritto, sulla protezione dagli abusi e, in ultima analisi, indeboliscono l’ordine internazionale basato su regole. Le ultime notizie sulla campagna Doppelganger mostrano una recente operazione di disinformazione che utilizza le tecnologie emergenti per clonare media ufficiali e che ha preso di mira 15 milioni di europei, 1.5 milioni solo in Italia, diffondendo narrazioni russe contro l’Ucraina e la Nato.

Guardando più nel dettaglio alla Russia, le pratiche di disinformazione si articolano all’interno della strategia multidimensionale del Cremlino per influenzare e corrompere i sistemi democratici. In questa campagna supportata da Mosca, l’adattamento al contesto locale svolge un ruolo chiave. Per questo motivo, la Russia si avvale di una rete di proxy ben radicata che diffonde disinformazione sfruttando i difetti e le debolezze degli ambienti domestici.

Andamenti e tendenze

Possiamo individuare alcune tendenze positive nella risposta collettiva alla disinformazione nell’ultimo mandato europeo. Innanzitutto, come già menzionato, il riconoscimento di avere a che fare con un gioco infinito in cui tattiche, tecniche e procedure (TTP) evolvono costantemente, rendendo impossibile qualsiasi soluzione a breve termine. In secondo luogo, la consapevolezza di come, nonostante fermare la disinformazione in toto sia improbabile, mitigarne gli effetti sia invece possibile e necessario.

D’altro canto, stiamo assistendo a nuove tendenze nell’ecosistema digitale che sono destinati a rimanere, e che influenzeranno e modelleranno la nostra risposta collettiva alla disinformazione nel lungo periodo. In primo luogo, non esistono ricerche indipendenti su come la disinformazione passi da una piattaforma ad un’altra, poiché ciò dipende dalla capacità e dalla volontà delle piattaforme di condividere i propri dati. In secondo luogo, osserviamo un aumento nella privatizzazione dei media, che ha un impatto diretto sulla responsabilità e sulla trasparenza. In terzo luogo, i contenuti generati dall’IA sono impiegati in modo parodistico come parte della campagna politica. Ciò spesso passa inosservato poiché non viene etichettato, eludendo così i requisiti di accountability. Infine, esiste un modello di business redditizio dietro la creazione e diffusione di contenuti ingannevoli.

Per fornire degli esempi illustrativi, le reti QAnon e Telegram sono divenute dei focolai per le narrazioni del Cremlino, eppure rimangono ancora delle scatole nere a causa delle carenze della governance digitale dell’Ue. Dall’altro lato, i sanzionati RT e Sputnik sono ancora accessibili, con delle aziende con sede europea, come Ruptly, che producono contenuti per loro. Di conseguenza, l’Ue dovrebbe adottare una posizione più coordinata e assertiva nel prossimo mandato contro le campagne di disinformazione russe, che mirano ad influenzare le istituzioni e i processi democratici e paralizzano il sostengo internazionale all’Ucraina.

La strada da percorrere. Una strategia europea contro la disinformazione

Nei prossimi anni, gli attori statali russi e la loro rete di proxy sfrutteranno un maggior numero di vulnerabilità sociali e politiche. L’analisi della disinformazione dovrebbe spostare l’attenzione dalle informazioni che elaboriamo al modo in cui le elaboriamo. La paura ostacola il discernimento e la Russia sta promuovendo la polarizzazione e la disintegrazione nel tentativo di conquistare “cuori e menti”. Quindi, l’Ue dovrebbe iniziare a giocare un ruolo di attore geopolitico anche nel campo dell’informazione, dove la comunicazione strategica rimane chiave. L’Ue-27 non può permettersi di rimanere in una posizione difensiva per un’altra legislatura. In questo senso, lo European Democracy Shield proposto dalla neo-rieletta presidente della Commissione von der Leyen dovrebbe riguardare anche l’azione penale contro i proxy russi e la lotta alla corruzione.

Ci sono diversi aspetti chiave che l’approccio dell’Ue contro la disinformazione dovrebbe intraprendere nei prossimi cinque anni. In primo luogo, le campagne di disinformazione dovrebbero essere analizzate insieme agli attacchi cibernetici e cinetici. Solo considerando le pratiche disinformative nel complesso, l’Ue sarà in grado di comprendere e anticipare i suoi obiettivi strategici. In secondo luogo, l’accesso alle informazioni è più difficile che mai in questo momento a causa di cavilli burocratici e della mancanza di fondi stabili. Ciò ostacola lo sviluppo di analisi indipendenti e limita l’accountability sulle piattaforme digitali. Una maggiore collaborazione tra il settore pubblico e quello privato potrebbe essere funzionale in questo senso, visto che le minacce da contrastare sono talvolta le stesse. In terzo luogo, l’Ue non può lottare da sola contro il pericolo della disinformazione. Essa dovrebbe cooperare con partner che sostengono le stesse idee, per condividere informazioni sui Ttp e costruire una resilienza globale contro le narrazioni fuorvianti. Anche l’Ue-27 è troppo piccola per affrontare la disinformazione da sola. La stesura di un vero e proprio codice di condotta internazionale potrebbe essere un altro buon punto di partenza, ma tenendo presente l’elemento locale della disinformazione.

Alcune narrazioni non si radicano in determinati paesi per motivi culturali, politici o linguistici. Possiamo raggiungere una risposta internazionale, ma solo senza dimenticarci dell’elemento locale. Infine, nella creazione di un quadro politico per la lotta alla disinformazione, è fondamentale potenziare gli strumenti che l’Ue già possiede, ma è ancora più importante concentrarsi sulla sensibilizzazione e sulla costruzione della resilienza. Prendendo TikTok come esempio, il design dell’app è progettato per inviare al pubblico tipologie di stimoli molto specifici, tesi ad abituare l’audience e radicarsi nella sfera psicologica. La soluzione per rendere le persone più resilienti esula, dunque, dall’ambito della sicurezza e richiede un approccio globale.

L’atteggiamento positivo nell’accogliere il quadro Fimi (Foreign Information, Manipulation and Interference) dimostra come vi sia consenso nell’identificare la lotta alle campagne di disinformazione come una porta digitale aperta che conduce al cuore delle democrazie europee. Una strategia comune non sarà facilmente raggiungibile, visto l’ampio spettro di legami e posizionamenti dei Paesi europei nei confronti della Russia. Tuttavia, saranno necessari volontà comune e allineamento politico per affrontare efficacemente la disinformazione nel prossimo mandato. Si dovrebbe perseguire un approccio globale governativo per integrare risorse (umane, tecniche e finanziarie), costruire la resilienza tramite la collaborazione, promuovere l’alfabetizzazione mediatica ed assicurare la trasparenza delle piattaforme.

Dall’altro lato, il business lucrativo delle piattaforme, attraverso i contenuti dannosi, dovrebbe cessare di interferire nella catena di trasmissione. Per quanto riguarda la regolamentazione e l’applicazione delle norme digitali, l’Ue dovrebbe rafforzare i propri processi e capacità per agire rapidamente e senza mezzi termini quando necessario. L’AI Act è un testo legislativo di riferimento, ma ci sono voluti oltre cinque anni affinché fosse approvato – e ancora di più per entrare in vigore, rispetto ai pochi mesi nel caso statunitense. Non esiste, detta all’inglese, una “silver bullet” per fermare la disinformazione. Per questa ragione, l’Ue dovrebbe spostare l’attenzione sulla pistola invece che sul proiettile.


×

Iscriviti alla newsletter