Oltre novemila documenti di acquisto dell’esercito cinese rivelano un programma sistematico di AI per il supporto decisionale, la guerra cognitiva e la sorveglianza delle infrastrutture. Scenario cognitivo fortemente segnalato dalla relazione dei servizi segreti al parlamento. La lettura di Gaetano Mauro Potenza, security manager ed esperto di sicurezza integrata
A febbraio 2026 il Center for Security and Emerging Technology (Cset) di Georgetown University ha pubblicato un report che dovrebbe stare sui tavoli dell’intelligence community europea sia pubblica che privata.
Si intitola China’s Military AI Wish List1 e analizza oltre 9.000 RFP (richieste di offerta pubblica) del Pla (l’Esercito Popolare di Liberazione) tra il 2023 e il 2024.
Non sono documenti strategici astratti, ma ordini di acquisto reali, con budget, specifiche tecniche e scadenze di consegna.
La Relazione Annuale dell’Intelligence italiana, presentata poche settimane fa a Montecitorio, parla di “intensificazione” delle minacce ibride e di una “inadeguata percezione del perimetro infrastrutturale da proteggere”. I due documenti, letti insieme, descrivono lo stesso problema da angolazioni opposte.
L’INTELLIGENTIZZAZIONE NON È UNA METAFORA
La dottrina militare cinese ha attraversato tre fasi: meccanizzazione, informatizzazione, intelligentizzazione. Quest’ultima, l’utilizzo dell’AI per accelerare e migliorare il ciclo decisionale, è oggi la priorità della modernizzazione dell’esercito di Pechino.
Il concetto operativo di riferimento è la multi-domain precision warfare: usare l’AI per identificare e colpire i punti deboli nei sistemi operativi degli avversari, in tutti i domini simultaneamente. Con una particolare accezione al sesto dominio, quello cognitivo, inteso come spazio di battaglia assestante.
Quello che il report Cset documenta è che questa dottrina non è solo retorica ufficiale. Si traduce in acquisti concreti, in budget allocati, in contratti assegnati a imprese civili cinesi in tempi rapidissimi concretizzando una military-civil fusion, la strategia di integrazione tra settore civile e industriale militare, al fine di garantire che le migliori capacità AI sviluppate dall’ecosistema tecnologico vengono sistematicamente convogliate verso applicazioni militari.
IL SUPPORTO DECISIONALE COME PRIORITÀ ASSOLUTA
Il dato più rilevante per chi lavora nella sicurezza integrata riguarda gli AI-DSS, i sistemi di supporto alle decisioni basati sull’intelligenza artificiale.
L’Esercito Cinese li considera lo strumento per compensare una debolezza strutturale nel suo corpo ufficiali, ma soprattutto per accelerare il ciclo Ooda “Osserva, Orienta, Decidi, Agisci” in scenari ad alta complessità informativa soprattutto sul dominio Cognitivo.
Le specifiche tecniche degli ordini descrivono sistemi in grado di “visualizzare dinamicamente lo sviluppo di eventi internazionali e domestici” integrando dati geografici, fonti Osint social media, database governativi e commerciali.
Si richiedono algoritmi predittivi per “l’andamento di certi tipi di eventi, con ordinamento per tempo, luogo e circostanze” e capacità di “pianificazione programmatica” in risposta a eventi critici a livello operativo.
QUANDO IL DECISION SUPPORT DIVENTA MOLTIPLICATORE DI RISCHIO
Tuttavia, accelerare il ciclo decisionale non è un problema teorico. Il Maven Smart System di Palantir, attualmente in uso nelle operazioni statunitensi in Iran, è sotto indagine del Pentagono per aver contribuito al bombardamento di una scuola a Minab che ha ucciso oltre 160 civili, in gran parte bambini.
La causa identificata dagli analisti non è un guasto tecnico è un sistema addestrato su dati di intelligence obsoleta che ha continuato a eseguire con precisione un errore sistematico, comprimendo il ciclo decisionale.
La velocità senza trasparenza algoritmica, ciò che nel settore si chiama Xai explainability, e senza validazione umana non è un vantaggio operativo ma un moltiplicatore di rischio.
Pechino non sta ignorando questo problema, ma sta facendo una scelta dottrinale differente. Negli oltre 9.000 ordini analizzati dal Cset, la explainability dei modelli non compare mai come requisito. Perché? Un sistema che spiega le proprie raccomandazioni crea accountability ed in un sistema di comando politico-militare centralizzato, l’opacità algoritmica è un vantaggio funzionale.
Inoltre, i sistemi hanno a centro la sfera infodemica e non cinetica: un sistema di targeting narrativo senza Xai che classifica erroneamente una popolazione target non produce vittime immediate, produce un degrado lento, invisibile e cumulativo della qualità informativa dell’ambiente in cui opera.
Errori senza cadaveri, invisibili per mesi e dall’esito incerto per le variabili futuribili. Insomma, Pechino sa fino a dove può spingersi nel modellare scenari futuri e nel prendere decisioni sull’oggi.
IL DOMINIO COGNITIVO COME CAMPO DI BATTAGLIA AUTONOMO
Il punto più significativo del report Cset, nonché il meno discusso nel dibattito italiano seppur con le raccomandazioni dei servizi sul tema, riguarda le operazioni nel dominio cognitivo. La Cina lo considera un dominio operativo a pieno titolo, al pari del terrestre, marittimo, aereo, spaziale e cyber. E gli ordini di acquisto rivelano tre ambizioni.
La prima è la comprensione cognitiva: sistemi per analizzare il sentiment delle popolazioni, mappare reti sociali, modellare la diffusione dell’informazione.
La seconda è la manipolazione cognitiva attiva: librerie di deepfake in almeno dieci lingue, sistemi per sostituire volti in video e generare scene sintetiche con audio. La terza è il targeting cognitivo: piattaforme per identificare vulnerabilità cognitive specifiche in popolazioni target, analizzare l’impronta digitale di individui e simulare campagne di ingegneria sociale.
Taiwan è il laboratorio in corso.
La Cina ha già eseguito campagne di disinformazione mirate sulle elezioni taiwanesi, e ora potrebbe usare l’AI generativa per amplificarne scala e sofisticazione anche in contesti europei. Ad esempio i servizi essenziali europei, (energia, finanza, logistica) non sono target secondari ma strategicamente coerenti per lo stesso tipo di operazioni.
COSA MANCA IN EUROPA, E IN PARTICOLARE IN ITALIA
Il recente report del Nato Strategic Communications Centre of Excellence descrive un Battleground algoritmico in cui sistemi agentici operano su larga scala filtrando e selezionando contenuti in autonomia2. L’Enisa ha sviluppato il framework Fimi per classificare le minacce di manipolazione informativa.
La Relazione dell’Intelligence italiana cita esplicitamente il rischio di cognitive warfare e chiede un cambio di paradigma nella protezione del perimetro pubblico e privato. Ed alcune infrastrutture essenziali lavorano alla costruzione di propri modelli di Dss. Cosa manca allora? Quello che manca non è la consapevolezza dottrinale, e va in questa direzione il documento programmatico dell’AI della difesa italiana, ma la capacità operativa e si misura in mesi, non in anni.
L’Esercito cinese assegna contratti con timeline di tre-sei mesi. Non sviluppa sistemi monolitici perfetti, sperimenta, itera, scarta quello che non funziona.
L’approccio europeo alla sicurezza, spesso dominato da cicli di procurement decennali e certificazioni interminabili è strutturalmente inadeguato a questa velocità di evoluzione della minaccia.
















