Le esercitazioni nel deserto del Gobi rivelano la nuova frontiera cinese della deception digitale: un uso dell’IA non solo per facilitare, ma per confondere sensori, algoritmi e sistemi decisionali avversari attraverso inganni fisici, manipolazioni dei dati e saturazione dello spettro
Non solo facilitatore, ma anche strumento per complicare e nascondere. Oltre alle già note applicazioni militari dell’Intelligenza Artificiale, principalmente riguardanti la facilitazione nello svolgimento di vari processi all’interno di un apparato militare, come ad esempio quelli legati al C4ISR e alla logistica, con il passare del tempo lo studio e le sperimentazioni con questa tecnologia disruptive vedono un impiego sempre più “creativo” della stessa. Anche facendo leva su un suo impiego da parte delle forze nemiche.
Un episodio accaduto nel deserto del Gobi illustra bene questo cambio di paradigma. Durante un’esercitazione condotta dalla People Liberation Army (Pla), le unità del “Red Team” (che nella prassi cinese indica le proprie, mentre in Occidente è la terminologia impiegata per definire lo schieramento avversario) supportate da sensori avanzati e sistemi di targeting assistiti dall’Intelligenza Artificiale, hanno lanciato un attacco chirurgico destinato a distruggere l’artiglieria avversaria con un attacco mirato e ben eseguito. Poco dopo l’attacco, la simulazione è stata sospesa, e gli istruttori hanno rivelato che più della metà dei sistemi del “Red Team” erano stati eliminati. I bersagli colpiti erano infatti decoy fisici e “firme digitali” manipolate ad arte per ingannare l’IA avversaria, spingendo così la squadra rossa a rivelare le proprie posizioni e a venire colpita preventivamente dalle vere batterie rivali.
Questo tipo di scenario non è un episodio isolato, come ricordano Peter W. Singer e Tye Graham, ma un tassello di una strategia che la Pla sta elaborando da anni. La dottrina cinese considera ormai l’Intelligenza Artificiale avversaria come un bersaglio militare da colpire attraverso le “tre direttrici” di dati, algoritmi e potenza di calcolo. Le operazioni contro i dati puntano a saturare i sensori nemici con segnali finti, imitazioni di firme radar e infrarosse, veicoli gonfiabili dotati di profili realistici, rivestimenti in grado di alterare la percezione termica o visiva delle piattaforme. Quelle contro gli algoritmi sfruttano debolezze intrinseche del machine learning, introducendo input manipolati e trappole logiche che portano i modelli fuori rotta. Infine, colpire la potenza di calcolo significa saturare lo spettro con rumore elettromagnetico, attaccare le reti, rallentare o bloccare i sistemi decisionali basati su IA costringendoli a elaborare quantità immense di dati ingannevoli.
L’adattamento in questo senso dell’ecosistema militare-industriale cinese è un’ulteriore conferma del trend. Mentre alcune aziende producono mimetizzazioni avanzate, coating anti-radar e generatori di firme false, altre creano veicoli gonfiabili a grandezza naturale capaci di replicare l’impronta radar di mezzi reali, mentre firme del settore dell’elettronica forniscono sistemi per generare segnali fittizi, disturbare reti e riprodurre comunicazioni nemiche allo scopo di confondere ricevitori e algoritmi. Persino giganti della tecnologia come Tencent o Qi’anxin sviluppano strumenti software per testare la resilienza dei modelli, scoprire vulnerabilità e raffinare le tecniche utili per un eventuale inganno degli algoritmi avversari.
C’è però da porre attenzione anche all’altra faccia della medaglia di queste dinamiche, ovvero il ritorno dell’importanza del fattore umano. L’eccessiva fiducia nei sistemi intelligenti rischia di portare a dipendenza cognitiva e bias difficili da individuare in tempo. Per questo, la Pla propone un addestramento specifico che insegni ai comandanti a riconoscere quando l’IA sbaglia, contestandone le conclusioni e inserendosi nei loop decisionali.
Spunti preziosi, che anche l’Occidente non può permettersi di ignorare. L’IA condizionerà inevitabilmente il futuro del warfare, e rimanere indietro in questo settore (più di quanto lo sia già) rispetto alla Repubblica Popolare in questo settore rischia di avere conseguenze catastrofiche. Dentro e fuori il piano militare.







