La possibile apertura di Google all’uso dei suoi modelli di intelligenza artificiale in reti classificate del Pentagono segnerebbe un salto nel rapporto tra Big Tech e difesa americana. Il nodo non è solo tecnologico, ma politico e reputazionale. Tra limiti dichiarati, uso operativo dei modelli e proteste interne, torna infatti il tema del controllo reale sugli impieghi militari dell’IA, soprattutto quando avvengono in ambienti sottratti allo scrutinio pubblico
Google sarebbe pronta ad aprire al Pentagono l’uso dei propri modelli di intelligenza artificiale in ambito classificato. A riportarlo è stato The Information, secondo cui l’intesa consentirebbe al Dipartimento della Difesa americano di impiegare i sistemi dell’azienda su reti riservate e per attività legate alla sicurezza nazionale. Se confermata nei dettagli, la notizia segnerebbe un nuovo avanzamento nel rapporto tra grandi piattaforme tecnologiche e apparato militare statunitense.
L’accordo permetterebbe al Pentagono di usare i modelli di Google per “qualsiasi scopo governativo lecito”, una formula che includerebbe attività sensibili come la pianificazione delle missioni e il targeting. Il contratto conterrebbe limiti sull’uso per sorveglianza di massa interna e armi autonome senza adeguata supervisione umana. Allo stesso tempo, Google non avrebbe un potere di veto sulle decisioni operative legittime del governo e dovrebbe assistere nell’adattamento di filtri e impostazioni di sicurezza quando richiesto.
OpenAI, Anthropic e la reazione pubblica
La possibile intesa non arriverebbe in un vuoto. OpenAI ha già sperimentato le ricadute reputazionali di un avvicinamento al Pentagono. Dopo gli accordi con la Difesa americana, una parte degli utenti ha contestato l’impiego dei suoi strumenti in ambito militare, perdendo un gran numero di abbonati. L’azienda ha provato a delimitare il perimetro della collaborazione richiamando la presenza di salvaguardie, ma il caso ha mostrato quanto rapidamente il rapporto tra modelli generativi e apparato militare possa incidere sull’immagine pubblica di una società dell’IA.
Il precedente più netto resta Anthropic. L’azienda si è scontrata con il Pentagono per il mantenimento di restrizioni su sorveglianza domestica di massa e armi pienamente autonome. Anthropic ha sostenuto che quelle eccezioni riguardassero aree d’uso di alto livello e non la gestione operativa delle missioni, che resta competenza dei militari. Il Dipartimento della Difesa ha reagito limitando l’uso della tecnologia dell’azienda e il contenzioso si è spostato anche sul piano legale. In questo contesto, la posizione di Google apparirebbe più vicina alla linea richiesta dal Pentagono.
Maven e il ritorno di una frattura interna
Il precedente più rilevante per Google risale al 2018, quando il caso Maven portò migliaia di dipendenti a contestare la collaborazione dell’azienda con il Pentagono. Quel programma riguardava l’impiego di tecnologie di intelligenza artificiale per analizzare filmati di sorveglianza raccolti da droni militari, con possibili ricadute sul miglioramento del targeting. La pressione interna spinse Google a non rinnovare il contratto, trasformando Maven in uno dei primi grandi casi di conflitto tra sviluppo dell’IA, commesse militari e cultura aziendale nella Silicon Valley.
La nuova vicenda riapre quella frattura in un contesto tecnologico diverso. I modelli oggi sono più generali, più flessibili e più difficili da ricondurre a un singolo compito. Più di 600 dipendenti avrebbero chiesto a Sundar Pichai di impedire l’uso dell’IA di Google in attività militari classificate. La preoccupazione riguarda proprio la classificazione, perché riduce la possibilità di verificare come i sistemi vengano impiegati e quanto restino efficaci i limiti dichiarati.
La notizia, se confermata, segnerebbe quindi un passaggio rilevante per Google e per l’intero settore. L’azienda entrerebbe più a fondo nella competizione per fornire capacità avanzate alla Difesa americana, accanto ad altri protagonisti dell’IA. Il profilo più delicato resta la distanza tra i principi dichiarati e il controllo effettivo sugli usi finali. Nelle reti classificate, quella distanza tende ad ampliarsi. Ed è lì che si misurerà il rapporto tra intelligenza artificiale commerciale e sicurezza nazionale.
















