Più fonti di informazione hanno raccontato come le Forze armate americane abbiano fatto uso del modello di IA Claude di Anthropic per catturare Maduro all’inizio di gennaio, pur non fornendo ulteriori dettagli. Oltre agli impieghi in fase di panificazione, è probabile che gli Usa siano al lavoro per rispolverare la teoria della Network-Centric Warfare, resa oggi possibile grazie all’IA. Niente eserciti di robot autonomi, ma una vera e propria rivoluzione per quanto concerne la conduzione delle operazioni militari
Le Forze armate americane avrebbero utilizzato l’IA Claude di Anthropic nella pianificazione e nella conduzione dell’operazione Absolute resolve, l’azione che ha portato alla cattura del presidente venezuelano Nicolas Maduro. La notizia, data inizialmente dal Wall Street Journal, sta facendo il giro dei media per le implicazioni legate all’uso etico degli algoritmi di intelligenza artificiale, per le presunte proteste di Anthropic (riportate da Axios) e per il ruolo crescente che le aziende private stanno assumendo nelle strutture decisionali del Pentagono. Tuttavia, sul piano prettamente militare, questo sviluppo offre più di uno spunto di riflessione per comprendere la presente e futura integrazione dell’IA nella conduzione delle operazioni e quale impatto avrà sulle strutture decisionali e operative delle Forze armate.
Cosa è successo
In base a quanto riportato dal WSJ, l’utilizzo del Large language model di Anthropic da parte dello US Military sarebbe stato possibile grazie a Palantir, l’azienda specializzata in applicazioni di IA per la sicurezza nazionale fondata da Peter Thiel e guidata da Alex Karp. Già da diverso tempo, Palantir ha messo a disposizione del Pentagono la piattaforma Maven, un modello di IA pensato per l’analisi e l’elaborazione di dati complessi. Sarebbe proprio tramite Maven che i militari Usa avrebbero avuto accesso a Claude. Quanto a cosa ha fatto esattamente Claude prima e durante l’operazione Absolute resolve, non è dato saperlo. Si tratta di informazioni altamente sensibili legate alla conduzione di un’operazione di alto profilo, quindi è assai improbabile che verranno rilasciati ulteriori dettagli circa l’esatto impiego del modello di IA nel corso dell’operazione.
Fermo restando che difficilmente verranno rilasciate informazioni ufficiali, è comunque possibile fare delle ipotesi. In base a quanto sappiamo dell’attuale livello di sviluppo dei modelli di intelligenza artificiale, sarebbe inverosimile pensare che l’IA abbia avuto un ruolo “decisionale” durante l’operazione Absolute resolve. In altre parole, non c’è un computer onnisciente che ha dato ordini ai soldati sul campo. Questo può essere detto con relativa sicurezza, dal momento che il principio del human-in-the-loop prevede che nessuna decisione di carattere operativo (soprattutto se concernente l’uso della forza letale) possa essere presa in autonomia da una macchina. Tale proibizione non esiste solo in virtù di questioni etiche e morali, ma anche perché lo stato di sviluppo delle IA non è ancora talmente avanzato da essere infallibile. Difficilmente uno strumento militare di eccellenza come quello Usa farebbe un tale livello di affidamento sull’IA senza garanzie più che solide.
La rivoluzione del Comando e controllo
Eppure, questo non significa che l’IA non stia rivoluzionando la conduzione delle operazioni militari. Il vero punto di svolta non è (solo) quello di schierare eserciti di droni autonomi, ma di poter risolvere (o quantomeno ridurre) uno dei maggiori crucci dei decisori militari nella storia: la Nebbia di Guerra. “Nessun piano di battaglia sopravvive al contatto con il nemico”, sosteneva il generale tedesco Helmut Von Moltke. Con questa frase, Moltke restituiva la caoticità che contraddistingue un’operazione bellica, in cui – soprattutto per chi comanda – non è possibile sapere con certezza cosa stia avvenendo sul campo di battaglia.
La “Nebbia” (così la battezzò Clausewitz) è il risultato del caos dello scontro, in cui le informazioni in entrambe le direzioni (rapporti e ordini) arrivano in modo sparso e disomogeneo. Nel corso dei secoli, molte innovazioni militari sono state pensate specificamente per “diradare” come possibile la Nebbia, dai palloni aerostatici di osservazione ai razzi di segnalazione, fino a invenzioni più moderne come la radio e il Gps. Più pulita e rapida è l’informazione che raggiunge il comando, più repentina e precisa saranno la decisione e il conseguente ordine. Il problema non è tanto reperire le informazioni, quanto più riuscire a ordinarle e razionalizzarle in tempo.
Con le moderne tecnologie di sensoristica avanzata, ogni singolo assetto (aereo, satellite, carro, l’elmetto di un soldato) si trasforma in un ricevitore e ripetitore, in grado di inviare informazioni in tempo reale direttamente dal campo al comando. Tuttavia, le reali potenzialità di quella che già negli Anni 90 veniva definita Network-Centric Warfare sono state finora limitate proprio dal fattore umano, non in grado di processare così tante informazioni in tempo reale. La promessa dell’IA militare, dunque, è principalmente rivolta al Comando e Controllo (C2), quella funzione che riguarda la pianificazione, il monitoraggio e la conduzione delle operazioni. I modelli di IA, addestrati a raccogliere e processare masse immani di dati in pochissimo tempo, possono restituire ai comandanti, dal livello tattico a quello operativo, un quadro in tempo reale e aggiornato della situazione sul campo. E questo non è un vantaggio da poco.
Chi prima arriva…
Come per tutti gli altri campi, è ormai chiaro che l’IA (almeno al suo attuale livello di sviluppo) non può sostituire completamente l’essere umano, soprattutto quando si parla di compiti creativi e che richiedono originalità di pensiero. Anche sul piano militare, un’IA può fornire tutte le alternative tattiche a una data situazione, ma non è in grado di replicare le considerazioni dettate dall’esperienza diretta e dall’istinto dei decisori umani. Difficilmente gli Stati maggiori spariranno, ma è invece chiaro che quelle Forze armate che per prime sapranno integrare completamente l’impiego degli algoritmi di IA e degli Llm nelle loro strutture C2 si troveranno nettamente avvantaggiate negli scenari operativi futuri.
… fa il lavoro a metà?
In base a quanto noto circa l’adozione dei sistemi di IA nei dispositivi militari, Cina e Stati Uniti sarebbero avanti a tutti gli altri Paesi. Se di Pechino si sa poco o nulla, lo stesso non si può dire per Washington. Il Pentagono ha adocchiato da anni l’IA come potenziale strumento rivoluzionario per i suoi impieghi militari, tuttavia è sotto il segretariato di Pete Hegseth che il Dipartimento della Difesa ha nettamente accelerato l’adozione di questi sistemi. Il come è presto detto: da alcuni mesi il Pentagono ha iniziato ad adottare soluzioni commerciali messe a disposizione da attori privati come Palantir. Il problema delle soluzioni cosiddette off-the-shelf (vale a dire già disponibili sul mercato) è che esse non vengono create per l’uso esclusivo da parte delle Forze armate, ma piuttosto “adeguate” a un impiego militare. In un documento strategico adottato a gennaio, il Pentagono dice chiaramente che intende promuovere l’integrazione di modelli e tecnologie commerciali sviluppati dal settore. Tuttavia, se questo approccio può indubbiamente accorciare i tempi di adozione (e permettere di recuperare l’eventuale terreno perso rispetto alla Cina), è probabile che le possibili criticità etiche e operative derivanti da una simile reliance sulle aziende private da parte delle Forze armate rimarrà oggetto di dibattito ancora a lungo.
















