“Chi controlla gli algoritmi, i dati e la capacità di calcolo controlla anche una parte significativa della capacità decisionale delle istituzioni. Per l’Europa questo significa affrontare due sfide contemporaneamente. Da un lato è necessario sviluppare capacità tecnologiche autonome per evitare una dipendenza eccessiva da fornitori esterni. Dall’altro è indispensabile costruire un sistema di governance che garantisca trasparenza, responsabilità e rispetto dei diritti fondamentali”. Intervista al prof. Antonio Teti, esperto di intelligence, cybersecurity e intelligenza artificiale, docente dell’Università G. d’Annunzio
Il caso Anthropic vs Pentagono accende un faro sulla ridefinizione dei rapporti di potere tra Stato e imprese tecnologiche nella gestione delle capacità strategiche, spiega a Formiche.net il professor Antonio Teti, esperto di intelligence, cybersecurity e intelligenza artificiale, docente dell’Università G. d’Annunzio. Infatti negli ultimi negli ultimi vent’anni le grandi piattaforme digitali hanno sviluppato competenze e infrastrutture computazionali che, in alcuni casi, superano quelle disponibili all’interno delle amministrazioni pubbliche.
Professore, il caso Anthropic-Pentagono ha acceso un forte dibattito internazionale. Perché il rifiuto di concedere pieno accesso all’intelligenza artificiale a un apparato militare viene considerato un evento così rilevante?
Il punto centrale non riguarda semplicemente un contenzioso tra un’azienda tecnologica e il Dipartimento della Difesa statunitense. Il vero tema è la ridefinizione dei rapporti di potere tra Stato e imprese tecnologiche nella gestione delle capacità strategiche. Negli ultimi vent’anni le grandi piattaforme digitali hanno sviluppato competenze e infrastrutture computazionali che, in alcuni casi, superano quelle disponibili all’interno delle amministrazioni pubbliche. Quando queste tecnologie diventano strumenti potenzialmente utilizzabili in ambito militare o di intelligence, emerge inevitabilmente la questione della governance. Il rifiuto di Anthropic non è stato un rifiuto assoluto di collaborare con il governo, ma piuttosto una richiesta di mantenere alcune linee rosse operative, come il divieto di utilizzo per sistemi d’arma completamente autonomi o per forme di sorveglianza interna di massa. Ciò apre una questione di fondo: fino a che punto un attore privato può stabilire limiti operativi su strumenti che, una volta integrati nelle strutture statali, diventano parte della sicurezza nazionale? È un interrogativo destinato a diventare sempre più frequente man mano che l’intelligenza artificiale entra nei processi decisionali militari.
Alcuni osservatori sostengono che la vera preoccupazione riguardi l’affidabilità dei modelli di IA in contesti operativi critici. Quanto è concreto questo rischio?
Il rischio è estremamente concreto. I modelli di intelligenza artificiale generativa, come i grandi modelli linguistici, non sono progettati per comprendere il mondo nel senso umano del termine; essi funzionano sulla base di probabilità statistiche. Questo significa che, in determinate condizioni, possono produrre risposte plausibili ma non necessariamente corrette, il fenomeno noto come “allucinazione dell’IA”. In un contesto militare, anche un errore marginale può avere conseguenze enormemente amplificate. Se un sistema di analisi automatizzata suggerisce una correlazione tra dati che in realtà non esiste, oppure interpreta erroneamente un pattern informativo, il rischio è quello di influenzare catene decisionali estremamente sensibili, come quelle relative alla selezione di obiettivi o alla valutazione di minacce. Il problema non è solo tecnico ma anche organizzativo. Quando un sistema di IA diventa parte integrante del processo decisionale, gli operatori umani tendono progressivamente ad affidarsi ai suoi suggerimenti. Questo fenomeno, noto come “automation bias”, può ridurre la capacità critica degli analisti e rendere più difficile individuare eventuali errori del sistema.
Un altro punto sollevato nel dibattito riguarda i sistemi d’arma autonomi. Quanto è realistico pensare che l’intelligenza artificiale possa arrivare a prendere decisioni letali senza supervisione umana?
Dal punto di vista tecnologico non siamo ancora a quel livello di autonomia decisionale, ma la traiettoria evolutiva delle tecnologie militari indica chiaramente che il grado di automazione continuerà ad aumentare. Già oggi esistono sistemi che utilizzano algoritmi per identificare bersagli, analizzare scenari operativi o suggerire opzioni tattiche ai comandanti. Il vero problema non è tanto l’ultimo passaggio, cioè il momento dell’ingaggio, quanto l’intero processo decisionale che precede quell’azione. Se le fasi di identificazione, classificazione e prioritizzazione dei bersagli sono fortemente influenzate da sistemi algoritmici, l’intervento umano rischia di diventare una formalità procedurale piuttosto che un controllo effettivo. Per questo motivo molti esperti ritengono fondamentale mantenere un principio di “human in command”, cioè la responsabilità ultima della decisione in capo a un essere umano. Tuttavia, affinché questo principio sia reale e non simbolico, è necessario progettare i sistemi in modo tale che l’operatore umano abbia effettivamente il tempo e gli strumenti per valutare criticamente le informazioni fornite dall’IA.
Nel dibattito è emersa anche la questione della sorveglianza interna e dell’uso dei dati. Perché questo aspetto è considerato così delicato?
Perché l’intelligenza artificiale amplifica enormemente la capacità di analizzare grandi quantità di dati personali. Oggi esistono enormi mercati di dati gestiti da società private che raccolgono informazioni su abitudini, spostamenti, comportamenti online e transazioni finanziarie. Se queste informazioni vengono integrate in sistemi di analisi basati sull’intelligenza artificiale, diventa tecnicamente possibile costruire profili estremamente dettagliati di milioni di individui. In contesti di sicurezza nazionale questo può essere utile per individuare minacce reali, ma allo stesso tempo può creare un sistema di sorveglianza diffusa che mette a rischio i principi fondamentali delle democrazie liberali. Il problema quindi non è solo tecnologico ma anche politico e giuridico. È necessario stabilire regole chiare su quali dati possono essere utilizzati, con quali garanzie e sotto quali forme di controllo democratico.
Alla luce di questa vicenda, quale insegnamento dovrebbero trarre l’Europa e l’Italia sul rapporto tra intelligenza artificiale e sicurezza nazionale?
La lezione principale è che l’intelligenza artificiale non è semplicemente una tecnologia, ma una infrastruttura strategica. Chi controlla gli algoritmi, i dati e la capacità di calcolo controlla anche una parte significativa della capacità decisionale delle istituzioni. Per l’Europa questo significa affrontare due sfide contemporaneamente. Da un lato è necessario sviluppare capacità tecnologiche autonome per evitare una dipendenza eccessiva da fornitori esterni. Dall’altro è indispensabile costruire un sistema di governance che garantisca trasparenza, responsabilità e rispetto dei diritti fondamentali. In ambito di sicurezza nazionale, l’intelligenza artificiale può offrire strumenti estremamente potenti per l’analisi delle minacce, la protezione delle infrastrutture critiche e la gestione delle crisi. Tuttavia, senza un quadro normativo chiaro e senza adeguati meccanismi di controllo, la stessa tecnologia potrebbe trasformarsi in un fattore di instabilità istituzionale. In altre parole, la vera sfida non è soltanto sviluppare sistemi di intelligenza artificiale sempre più avanzati, ma assicurarsi che rimangano strumenti al servizio delle decisioni umane e non diventino, progressivamente, il luogo in cui tali decisioni vengono di fatto determinate.
















