La sicurezza cognitiva emerge come nuova frontiera della difesa europea: proteggere percezioni, decisioni e fiducia collettiva da manipolazioni psicologiche e informative. Il report dello European Union Institute for Security Studies
Droni che violano gli spazi aerei, profili psicometrici che anticipano le reazioni di cittadini e leader, deepfake sempre più convincenti e cloni di siti media che replicano perfettamente i loghi istituzionali.
La guerra ibrida ha abbandonato il confine tra reale e virtuale e si combatte oggi nel diminio che, più di tutti, comprende tutti gli altri dominii. Quello cognitivo, la mente umana. Qui si gioca la partita della sicurezza e della resilienza europea, per le quali non bastano le sole strategie militari o le dottrine strategiche tradizionali.
Micro aggressioni
Gli attacchi ibridi non sono solo informativi, ma anche conoscitivi, emozionali, cognitivi. Negli ultimi mesi, diverse violazioni dello spazio aereo di Polonia, Romania ed Estonia hanno offerto un esempio tangibile di come Mosca utilizzi operazioni psicologiche calibrate per provocare reazioni emotive collettive. Troppa calma equivale a debolezza, troppa durezza rischia l’escalation. Nel mezzo, la “trappola cognitiva”: l’avversario influenza percezioni e comportamenti, spingendo governi e opinioni pubbliche su sentieri decisionali impervi.
Questo è il dominio della cognitive security, concetto ancora giovane ma destinato a entrare con forza nelle dottrine europee di difesa. Secondo lo European Union Institute for Security Studies (Euiss), la protezione dei processi percettivi e decisionali dai tentativi di manipolazione esterna è ormai essenziale quanto la sicurezza cibernetica o quella fisica.
Dalla guerra delle idee alla guerra delle percezioni
Il termine “cognitive warfare” appare nei primi anni Duemila all’interno di Nato Act, la struttura di trasformazione concettuale dell’Alleanza. L’obiettivo? Capire come gli avversari potessero sfruttare le debolezze della cognizione umana per distorcere la realtà percepita e influenzare il comportamento dei decisori. Oggi, l’evoluzione tecnologica ha reso questa strategia più precisa, più economica e più pervasiva.
L’intelligenza artificiale generativa, l’analisi psicometrica e la manipolazione algoritmica permettono a stati ostili e attori non statali di condurre vere e proprie operazioni di ingegneria cognitiva: modellano il consenso, alterano l’interpretazione di eventi geopolitici, erodono fiducia nelle istituzioni.
Un’inchiesta del Finnish Innovation Fund (Sitra) già nel 2022 aveva dimostrato come le piattaforme digitali potessero, attraverso reti di influenza invisibili, modificare le opinioni dei principali esponenti politici del Paese. Oggi, spiega un rapporto del Joint Research Centre della Commissione Europea, la diffusione dell’IA generativa ha demolito ogni barriera economica e tecnica all’uso della disinformazione come arma di massa.
Nessuno come Mosca o Pechino ha sistematizzato l’uso della guerra cognitiva. Nel caso russo, le campagne di influenza, coordinate da agenzie come la Social Design Agency (Sda), hanno perfezionato l’arte della simulazione di realtà parallele. Le cosiddette operazioni Doppelgänger hanno clonato siti di testate giornalistiche e istituzioni europee per diffondere versioni alterate di notizie reali, rendendo indistinguibile la fonte autentica da quella manipolata.
L’obiettivo degli attacchi informativi e conoscitivi è quello di riscrivere i frame interpretativi con cui le persone comprendono gli eventi e il loro corso. In Ucraina, Mosca lavora a un meta-racconto che rilegge la storia del Novecento, attribuendo all’Occidente la responsabilità dell’“ingiustizia postbellica” e negando la legittimità della sovranità ucraina. La lettura della storia diventa un’arma cognitiva. Cambiare il passato per riscrivere il futuro.
L’obiettivo reale non è convincere, ma confondere
Saturare l’infosfera di rumore, spingere i cittadini a semplificazioni emotive, ridurre la capacità critica collettiva. In questo caos calcolato, la vulnerabilità cognitiva diventa terreno fertile per la manipolazione strategica e sistemica, da stimoli informativi ed emozionali superficiali fino a operazioni che, da anni, cercano di inflitrarsi nei meandri più profondi della mante umana.
L’Unione Europea non parte da zero
Negli ultimi anni l’Ue ha costruito un’architettura articolata per contrastare minacce ibride e operazioni di influenza straniera, come lo Strategic Compass, i toolbox anti-Fimi, le rapid response teams.
Eppure, come osserva l’Euiss, questi strumenti affrontano soprattutto i contenuti manipolativi, non le debolezze cognitive che li rendono efficaci.
La cognitive security, in confronto al contrasto alla disinformazione, è un cambio di prospettiva che non si limita a individuare e confutare falsità, ma che mira a rinforzare i processi mentali collettivi e individuali che determinano come un’informazione viene percepita e interiorizzata. È resilienza sociale centrata sull’individuo e sulle sue facoltà cognitive.
Gli strumenti del nemico? Bias, contagio emotivo, motivazioni irrazionali, overload informativo. Per contrastarli serve una difesa certamente tecnica, ma instrinsecamente politica e neuro-psicologica, capace di ridurre le vulnerabilità di base del cittadino digitale.
Il livello strategico
L’Euiss indica tre direttrici strategiche – strategico, operativo e tattico – che, secondo le analisi dell’Istituto, fungerebbero da struttura per una difesa cognitiva efficace e condivisa.
Il livello strategico consisterebbe nel tracciare un Cognitive Resilience Framework europeo, con indicatori condivisi di vulnerabilità cognitiva e linee guida integrate nello Strategic Compass e nei piani di difesa nazionali. Da qui, ogni esercitazione su crisi ibride dovrebbe includere un modulo di analisi percettiva e decisionale. Il modello proposto, già sperimentato nel Nord Europa, è il Didi framework (Deception–Intention–Disruption–Interference), il quale consente di individuare operazioni di influenza in base a trasparenza delle fonti, intenzione ostile, livello di distorsione e interferenza sistemica. Sul piano politico, afferma lo studio dell’Euiss, l’Ue potrebbe ispirarsi alla Swedish Psychological Defence Agency, che unisce intelligence e comunicazione strategica per neutralizzare campagne manipolative prima che diventino virali. E che, soprattutto, inserisce la mente come elmento chiave nelle strategie di sicurezza nazionale.
Il livello operativo
Per integrare scienze cognitive e sicurezza, afferma il report, occorre creare un gruppo scientifico civile-militare sui rischi cognitivi, che unisca neuroscienze, psicologia comportamentale e studi sulla sicurezza. L’obiettivo? Analizzare i punti ciechi cognitivi delle società europee e fornire policy concrete. Metodo che dovrebbe rendere, sul medio periodo, la cogntive security parte della formazione pubblica. Informazione, sensibilizzazione e formazione civica attraverso programmi di pensiero critico, media literacy, consapevolezza dei bias cognitivi, in sinergia con iniziative come European Democracy Shield e Europe’s Digital Decade.
Il livello tattico
Lo Stato ha però il compito di difendere i propri cittadini e di riuscire a farlo sì con prevenzione e norme giuridiche, ma anche in tempo reale. Sul terreno, la manipolazione cognitiva assume forme dirette. Doxing di personale politico o militare, diffusione di dati privati, operazioni coordinate di pressione psicologica. Attacchi che necessitano, per rispondere, di Cognitive Defence Teams, evoluzione delle attuali Hybrid Rapid Response Teams, capaci di reagire in poche ore a campagne di influenza in corso, proteggendo civili, giornalisti, analisti e personale militare. Misure che dovrebbero, secondo l’Euiss, prevedere un coordinamento con Regno Unito e Paesi del Partenariato Orientale per la condivisione di intelligence e procedure. Sollevando non pochi interrogativi riguardo la reale praticabilità delle procedure di intelligence sharing.
Come si misura la resilienza cognitiva
La proposta dell’Euiss suggerisce cinque indicatori per valutare la tenuta cognitiva europea: il tempo di rilevazione di un attacco percettivo (dall’innesco alla consapevolezza operativa); la saturazione dell’infosfera: rapporto tra rumore artificiale e contenuti genuini su un determinato tema; il mutamento dei frame interpretativi, cioè la capacità di un messaggio di alterare la lettura collettiva degli eventi; la resilienza ai bias, misurata attraverso test di motivated reasoning prima e dopo interventi educativi, l’efficacia del pushback, ovvero la rapidità con cui un messaggio correttivo riduce la diffusione e l’impatto emotivo della manipolazione.
Metriche ancora in evoluzione, ma che costituiscono il primo passo per trattare la cognizione come un dominio operativo al pari del cyber o dello spazio che vede un aumento esponenziale delle minacce dirette verso il modello della democrazia liberale, il suo apparato valoriale ed il suo intero apparato elettorale e politico.