Quando la realtà condivisa si frammenta, il problema non è più solo informativo: diventa una vulnerabilità strategica. Correggere singoli messaggi non basta. Serve una capacità pubblica di osservazione e intervento sull’ecosistema cognitivo, quello che oggi manca. L’analisi di Antonio Scala, dirigente di ricerca presso l’Istituto dei Sistemi Complessi del Cnr
Le democrazie moderne si fondano su una premessa implicita: che i cittadini possano discutere, dissentire e competere politicamente a partire da una base minima di realtà condivisa. Non è necessario essere d’accordo sui valori, sugli interessi o sulle soluzioni. Ma è necessario, almeno in parte, riconoscere gli stessi fatti, o quantomeno accettare procedure comuni per discuterli. Quando questa base si erode, il problema non è più soltanto informativo. Diventa istituzionale, strategico, persino geopolitico. Questa erosione non è una deriva culturale spontanea: è il prodotto di un ambiente informativo che, per struttura, moltiplica e separa realtà percepite sempre meno compatibili.
I tre pezzi precedenti di questa serie hanno messo a fuoco altrettanti meccanismi di erosione. Il primo: gli algoritmi non falsificano i fatti, ma riorganizzano il contesto che li rende leggibili, producendo letture causali incompatibili degli stessi fatti. Il secondo: nelle reti digitali il potere non risiede nel controllo del messaggio, ma nell’architettura delle connessioni che plasma l’esposizione e, attraverso di essa, la plausibilità. Il terzo: alcune comunità online non si limitano a riprodurre narrazioni – le producono collettivamente, costruendo cosmologie narrative dotate di logica interna e criteri di validazione propri. Presi insieme, questi tre meccanismi non sono anomalie culturali né patologie marginali. Sono vulnerabilità sistemiche delle democrazie contemporanee.
Il dominio cognitivo – lo spazio in cui si formano percezioni collettive, fiducia, appartenenze e attribuzioni causali – è precisamente ciò che questi meccanismi erodono sistematicamente. Se gruppi diversi interpretano gli stessi eventi secondo logiche incompatibili, il conflitto non riguarda più cosa fare: riguarda cosa stia accadendo.
In questo contesto, molte politiche di contrasto alla disinformazione mostrano i loro limiti. Fact-checking, etichettatura delle fonti, rimozione dei contenuti: strumenti necessari, ma strutturalmente tardivi. Correggono singoli messaggi mentre il danno si produce nell’ambiente che li seleziona, li amplifica e li concatena. In un ecosistema governato dall’engagement, ciò che viene premiato non è necessariamente ciò che è più vero, ma ciò che trattiene più a lungo l’attenzione. Il problema si forma a monte: nell’architettura delle relazioni, nella distribuzione della visibilità, nella dinamica con cui certe comunità si consolidano e altre si isolano.
Il nodo, allora, non è censurare. È capire. Capire come si formano gli ecosistemi cognitivi, come emergono cluster narrativi reciprocamente ostili, come si diffonde la credibilità dentro comunità informativamente dense e socialmente coese. Senza questa capacità di osservazione, la risposta pubblica resta inevitabilmente tardiva e inadeguata. E senza accesso ai dati delle piattaforme – sulla distribuzione della visibilità, sui meccanismi di raccomandazione, sulle traiettorie di circolazione dei contenuti – questa capacità di osservazione non è costruibile.
È utile distinguere a questo punto due forme di resilienza cognitiva. La prima, passiva, interviene sui sintomi: fact-checking, etichette, rimozioni. La seconda, attiva, interviene sull’architettura che produce i sintomi – sui meccanismi di amplificazione differenziale, sulle dinamiche con cui certi cluster narrativi si consolidano prima ancora che i contenuti diventino visibili al grande pubblico. Il Virality Project dello Stanford Internet Observatory ha mostrato durante la pandemia cosa significa resilienza attiva in pratica: monitoraggio in tempo reale dei pattern di amplificazione, identificazione delle narrative emergenti prima che diventassero dominanti. I limiti maggiori di quel progetto sono emersi esattamente sull’accesso ai dati delle piattaforme – lo stesso nodo che rende strutturalmente difficile qualsiasi risposta tempestiva.
La sicurezza cognitiva dovrebbe quindi essere pensata come un nuovo campo di policy: non controllo delle opinioni, ma tutela attiva delle condizioni per un conflitto democratico non distruttivo. Questo richiede capacità analitiche pubbliche per mappare gli ecosistemi informativi, regole più solide sull’accesso ai dati, e coordinamento europeo, perché nessuno Stato può affrontare da solo infrastrutture comunicative di scala globale.
Il Digital Services Act rappresenta un passo importante, ma con un limite preciso: regola i messaggi, non la geometria. Interviene sui contenuti – rimozione, etichettatura, trasparenza algoritmica – ma non tocca le dinamiche innescate dall’architettura delle connessioni e dai meccanismi di amplificazione. Vale la pena notare che l’Europa ha già costruito, in domini adiacenti, infrastrutture tecniche permanenti per minacce immateriali critiche: l’Enisa per la cybersecurity, il Centro Nato per le Comunicazioni Strategiche (StratCom) per le narrative ostili di attori statali. La domanda che resta aperta è perché non esista un equivalente civile – con mandato, risorse e accesso ai dati – per la sicurezza dello spazio cognitivo interno delle democrazie.
Senza un minimo di realtà condivisa non esiste pluralismo robusto. Esiste piuttosto una giustapposizione instabile di mondi informativi separati, ciascuno convinto della propria evidenza e dell’altrui manipolazione. La sicurezza cognitiva, allora, non è il contrario della democrazia. È una delle condizioni della sua sopravvivenza.
















