Il braccio di ferro tra il Pentagono e Anthropic segna uno sviluppo senza precedenti nel rapporto tra l’apparato militare statunitense e la Silicon Valley. Pesano le implicazioni politiche, il posizionamento strategico delle aziende dell’IA e la ridefinizione degli equilibri industriali nella competizione tecnologica globale. A loro volta tornano centrali temi come il controllo umano, i limiti etici e la governance dell’intelligenza artificiale. L’intervista di Airpress al generale Fernando Giancotti
Nelle ultime settimane, il Dipartimento della Difesa americano e Anthropic, l’azienda specializzata in applicazioni di intelligenza artificiale di Dario Amodei, sono stati al centro di un braccio di ferro riguardo l’impiego delle tecnologie generative per scopi di sicurezza nazionale. Dopo vari tentativi di mediazione, il Pentagono ha annunciato la chiusura dei rapporti con Anthropic e che tutti i sistemi riconducibili all’azienda saranno sostituiti entro sei mesi. La questione va oltre il caso specifico e riguarda anche la più ampia rivoluzione negli affari militari portata dall’avvento dell’IA. Un processo che riguarda da vicino anche l’Italia, che proprio questa settimana ha rilasciato la sua strategia IA per la difesa. L’intervista di Airpress al generale Fernando Giancotti, già presidente del Centro alti studi per la Difesa (Casd).
Generale, partiamo dai fatti. Il Pentagono ha annunciato la chiusura dei rapporti con Anthropic e la rimozione dei suoi modelli entro sei mesi. Quali conseguenze operative dobbiamo aspettarci?
Dal punto di vista operativo l’impatto sarà immediato. Anthropic è stata la prima – e finora la più avanzata – tra le Big Tech dell’IA a ottenere le certificazioni necessarie per lavorare con il Dipartimento della Difesa. I suoi modelli sono utilizzati in modo intensivo per l’analisi dei dati. Prima che altri operatori raggiungano lo stesso livello di capacità e di certificazione passerà del tempo, quindi una perdita di funzionalità ci sarà. Tuttavia lo stesso Amodei ha assicurato una “transizione ordinata” al prossimo operatore. Ci sarà una fase di adattamento, ma l’amministrazione ha scelto di assumersene il costo.
Lei ha definito la scelta di Anthropic “significativa” sul piano politico. Perché?
Perché è una scelta di campo. L’interessantissima dichiarazione di Amodei apre ponendo come scopo dell’IA la difesa degli Stati Uniti, delle altre democrazie e la lotta contro le autocrazie. Si tratta di un messaggio politico chiaro. Anthropic si colloca su un terreno valoriale preciso, rivendicando una superiorità morale che oggi può sembrare fuori moda, ma che potrebbe tornare centrale nel prossimo futuro. In un momento in cui molte Big Tech si erano allineate con l’amministrazione, questa è una presa di distanza significativa. C’è anche una componente di posizionamento di mercato. Un’azienda che gestisce dati di centinaia di milioni di persone e rivendica il coraggio di difendere privacy e valori democratici rafforza la propria identità presso utenti e investitori.
Quanto pesa il fattore economico in questa decisione?
Il contratto con il Pentagono vale circa 200 milioni di dollari. È una cifra significativa in assoluto, ma molto piccola rispetto alla traiettoria di crescita prevista per l’azienda. È evidente che una scelta di questo tipo sia stata ponderata attentamente. Si tratta di una decisione strategica, non emotiva. In questo senso può essere letta anche come una scommessa sugli sviluppi futuri del contesto politico e regolatorio statunitense.
Nel frattempo, Sam Altman (ceo di OpenAI) si è subito proposto per rimpiazzare Anthropic. Come valuta questa mossa?
Altman ha scommesso sull’amministrazione, mentre Amodei ha scommesso su un’alternativa, in un momento di calo dei sondaggi e difficoltà bipartisan del governo, con le elezioni Mid-term in arrivo. Ma è interessante notare che Altman non ha rotto con la narrativa di Amodei (non si sa mai?). L’ad di OpenAI non ha detto “accettiamo il lawful use senza condizioni”, ma ha sostenuto di aver trovato il compromesso cercato da Anthropic. Anzi, ha proposto che il Pentagono offra le stesse condizioni a tutte le altre tech company. C’è anche una forte rivalità personale tra i due che gioca un ruolo. Ma alla fine l’intenzione di Altman non è tanto fare da ponte tra Silicon Valley e Pentagono, quanto preservare i propri interessi con il minor rischio possibile.
Questo scontro arriva a poca distanza dalla pubblicazione, a dicembre, della nuova strategia IA del Pentagono. Siamo di fronte a un’accelerazione strutturale del rapporto tra tecnologia e difesa?
Sì. Ciò va inquadrato nella visione del mondo di questa amministrazione. Negli Stati Uniti è sempre esistita un’integrazione tra il Pentagono e l’industria, anche dialettica. Ma l’enfasi estrema che questa amministrazione pone sull’intelligenza artificiale è giustificata dalle previsioni sull’impatto che la tecnologia avrà sulle operazioni militari e sugli equilibri strategici. L’approccio è stato quello di andare il più veloce possibile, con il minor numero di limitazioni, anche attraverso contrattazioni bilaterali dirette con le singole aziende. Anthropic era particolarmente apprezzata per la capacità dei suoi LLM di analizzare grandi quantità di dati con la migliore precisione. Il meccanismo si è inceppato perché il fornitore non ha voluto accettare le condizioni del committente.
Questo episodio riporta al centro il modello americano di integrazione tra industria e difesa. Come funziona oggi questo ecosistema?
Negli Stati Uniti l’integrazione tra apparato militare e industria tecnologica è storicamente strutturale. Oggi l’intelligenza artificiale è percepita come tecnologia abilitante per la superiorità strategica futura, e questo ha accelerato le dinamiche di collaborazione. Il rapporto è di tipo contrattuale, con negoziazioni bilaterali mirate tra committente e fornitore. Nel caso specifico, il meccanismo si è inceppato perché non si è trovato un punto di equilibrio sui vincoli richiesti. L’accelerazione impressa negli ultimi anni riflette la convinzione che l’IA avrà un impatto diretto sugli equilibri operativi e strategici. In questo quadro si colloca anche il dibattito su quali limiti adottare e con quale tempistica.
Il nodo etico ruota spesso attorno al principio dell’“human in the loop”. È davvero imprescindibile?
È un principio molto rilevante, ma va analizzato con attenzione. Per esempio, Amodei non afferma che le armi autonome non debbano esistere in assoluto. Sostiene che allo stato attuale non siano sufficientemente affidabili e che un loro impiego non adeguatamente controllato potrebbe non essere coerente con gli interessi e i valori dichiarati. Qui è utile distinguere. L’IA specializzata, in ambiti circoscritti, può raggiungere livelli di precisione molto elevati. Diverso è il caso dei sistemi impiegati nel decision making strategico. In questo ambito il controllo umano è cruciale, non solo nella decisione finale ma anche nell’impostazione del problema.
Recenti sperimentazioni in ambito di wargaming hanno mostrato che sistemi basati su modelli statistici possono tendere inopportunamente all’escalation. Questo non è nell’interesse di nessuno. Per questo oggi il “human in the loop” ha un significato forte. Il punto centrale, la priorità assoluta è il dominio della tecnologia: il livello di delega deve essere sempre una scelta attenta e consapevole dell’uomo. Esistono formule diverse – in the loop, on the loop – ma ciò che conta è mantenere la capacità di controllo e la responsabilità.
Al netto del dibattito etico, quali sono i vantaggi concreti che spingono gli Stati a investire nell’IA militare?
Il primo è la superiorità decisionale. La capacità di processare enormi quantità di dati, individuare segnali deboli, sintetizzare informazioni strategiche, generare opzioni e rivalutare quanto fatto aumenta in modo significativo la qualità del processo decisionale. Il secondo è la superiorità nell’ingaggio. Sistemi autonomi o semi-autonomi consentono massa, ad esempio in configurazioni a sciame, grande rapidità, riducendo i tempi di reazione e migliorano molto l’integrazione dei sensori sul piano tattico.
Inoltre, un sistema autonomo non è soggetto ai limiti fisiologici umani e può essere progettato con maggiore flessibilità. Tutti questi elementi rendono l’IA una direttrice quasi obbligata per chi vuole rimanere competitivo. La questione non è se utilizzarla, ma come governarla.
In Europa e in Italia l’approccio sembra più improntato alla cautela.
La strategia italiana per l’intelligenza artificiale nella difesa, appena uscita, afferma chiaramente la centralità dell’uomo e la necessità di un approccio etico, trasparente, responsabile e conforme al diritto internazionale. È un passaggio importante. Qui si confrontano due grandi approcci, uno che privilegia la massima libertà operativa per ottenere efficacia immediata e un altro che cerca di coniugare efficacia ed etica per garantire sostenibilità nel lungo periodo. Non si tratta di una contrapposizione ideologica, ma di un equilibrio da trovare. La storia del diritto internazionale, ad esempio, indica che i sistemi di regole emergono perché vi è una generale esigenza di trovare equilibri meno distruttivi. Anche in questo caso hanno una funzione di stabilizzazione, a fronte di tecnologie così dirompenti. Occorre però disegnarle con grande attenzione perché non limitino l’efficacia operativa. C’è chi ci sta provando, in concreto.
Ha parlato della strategia della Difesa italiana sull’IA , che ne pensa?
Il fatto che sia stata pubblicata la strategia per l’IA nella Difesa è molto positivo. È un passo avanti abilitante molto significativo. Ma occorre tener ben presente che, in un settore che evolve con questa rapidità, la tempestività è un fattore critico e la nuova tecnologia da sola non basta. Serve la capacità di integrarla rapidamente ed efficacemente nei sistemi militari, prassi focalizzate sull’innovazione operativa e una continua e profonda trasformazione delle organizzazioni. In primo luogo, il cambiamento deve essere culturale. Quando le tecnologie trasformano radicalmente la scala temporale dei fenomeni, le persone e le organizzazioni devono essere in grado di cambiare con grande agilità. Nello sviluppo della strategia, la governance potrà essere progressivamente strutturata, così come i principi etici molto generali enunciati potranno essere approfonditi e resi applicabili, mentre si concretizzano le molte indicazioni che le 15 direttrici strategiche individuate forniscono. L’importante è mantenere il forte dinamismo che questo nuovo mondo esige. Il documento è un punto di partenza, certamente non un punto di arrivo.
La vicenda Anthropic è destinata ad avere nuovi capitoli?
È probabile. La sua rilevanza infatti è simbolica, ma non solo. Conferma che le grandi aziende tecnologiche sono attori strategici a tutti gli effetti, con un potere economico e sistemico rilevante. Quando uno di questi attori assume una posizione valoriale esplicita, il segnale è politico. Assisteremo probabilmente a ulteriori evoluzioni, anche in relazione alla dialettica del potere effettivo, alle tendenze del quadro regolatorio e agli sviluppi elettorali futuri negli Usa.
















