Droni intelligenti, software di targeting, cyber attacchi generati da algoritmi: l’IA è già una protagonista del campo di battaglia. Ma ricercatori e analisti mettono in guardia dai limiti e dalle illusioni. Evidenziando come la guerra del futuro sarà una questione di equilibrio, non di automazione totale
Molti analisti parlano ormai dell’uso bellico dell’Intelligenza Artificiale in guerra come del vero “momento Oppenheimer” della nostra epoca. Un termine che indica l’idea che, come accadde con il nucleare a metà Novecento, stiamo varcando una soglia dalla quale sarà difficile tornare indietro. Un peso massimo Henry Kissinger aveva colto con lucidità questa dinamica, mettendo in guardia dal rischio che i conflitti del futuro venissero accelerati, amplificati e forse persino decisi da algoritmi capaci di superare la velocità e la capacità di giudizio dell’uomo. E qualcuno sembra aver ascoltato gli appelli di Kissinger, se si pensa alla decisione sul non delegare l’uso delle armi nucleari all’IA, o alla richiesta del segretario generale dell’Onu António Guterres per un divieto totale delle armi letali completamente autonome.
Eppure, nonostante alcune opposizioni, l’IA viene già ampiamente utilizzata nella dimensione militare, in particolare con compiti di logistica, operazioni cyber e soprattutto targeting. Nel conflitto ucraino, software AI-based permettono ai droni di Kyiv di sfuggire ai jammer russi, mentre nella Striscia di Gaza il sistema Lavender ha contribuito a identificare decine di migliaia di potenziali obiettivi umani. Questi impieghi mostrano un’evoluzione reale, che però ancora non coincide con l’autonomia totale immaginata da molti. Che potrebbe però non essere lontana: alcuni scenari immaginati da analisti esperti nel settore suggeriscono che nell’estate del 2027 la Cina possa invadere Taiwan con droni autonomi capaci di saturare le difese dell’isola, attacchi cibernetici generati da algoritmi in grado di spegnere comunicazioni ed energia e una campagna di disinformazione prodotta da sistemi generativi per attenuare la reazione internazionale.
Anche le grandi aziende tecnologiche stanno cambiando radicalmente atteggiamento, aprendosi al militare. OpenAI, che a inizio 2024 vietava l’uso militare dei propri modelli, pochi mesi dopo firmava un accordo con Anduril per contribuire all’abbattimento di droni sul campo di battaglia. Hype tecnologico e costi crescenti, spingono le Big Tech verso il settore della difesa e i suoi ampissimi budget. Non sorprende quindi che il venture capital destinato alla difesa sia già raddoppiato rispetto all’anno scorso, in un mercato che sembra promettere profitti e influenza in misura crescente.
Eppure, proprio mentre la narrativa dell’automazione totale prende piede, alcuni dei centri di ricerca più autorevoli invitano alla prudenza. Come ad esempio gli studiosi del Belfer Center di Harvard ricordano che le difficoltà tecniche per sviluppare sistemi davvero autonomi sono enormi e spesso sottovalutate. O ancora il professor Anthony King, secondo cui l’IA non sostituirà l’uomo, ma ne potenzierà la visione d’insieme, la capacità di analisi, la rapidità decisionale. “La completa automazione della guerra è un’illusione”.
E non mancano le critiche. Da un lato c’è chi non crede alla promessa di “maggiore precisione, minori vittime”, adducendo come prova quanto accaduto in Afghanistan, dove rendere più facile e meno costoso colpire (in quel caso grazie all’uso estensivo dei sistemi unmanned) può semplicemente aumentare la frequenza degli attacchi, anziché ridurre la violenza. Dall’altro lato ci sono figure con esperienza diretta sul campo, come l’ex pilota della Marina di Washington Missy Cumming, che denunciano i limiti tecnici dei modelli linguistici e la difficoltà di verificare decisioni basate su migliaia di input. L’argomento secondo cui un operatore umano controllerà tutto non basta più, perché nessun analista può realmente verificare in modo trasparente la logica interna di un sistema complesso.
In definitiva, la sfida non è arrestare il progresso dell’IA, ma impedire che questo progresso superi la nostra capacità di comprenderlo e governarlo. La tecnologia può amplificare la forza militare, ma non può sostituire il giudizio politico, il senso del limite e la responsabilità etica che spettano agli esseri umani. È su questo equilibrio che si giocherà la sicurezza del mondo nei prossimi anni.
















