Skip to main content

Niente ChatGpt per il Pentagono. Come la difesa americana immagina l’IA

I modelli di Intelligenza Artificiale attualmente disponibili non soddisfano i requisiti dell’apparato della difesa statunitense, che preferisce invece svilupparne uno in proprio. L’utilizzo di archivi e metodi militari potrebbe garantire una maggiore efficienza, oltre ad evitare il verificarsi di pericolosi incidenti

L’Intelligenza Artificiale è senza dubbio una delle scoperte che impatteranno maggiormente lo sviluppo dell’essere umano nei decenni a venire. ChatGpt rappresenta soltanto la sua versione embrionale, un prototipo di quello che potranno essere le applicazioni future di questa tecnologia. Ma proprio in quanto prototipo, il prodotto di OpenAI possiede ancora troppe inefficienze e troppi limiti. Motivi per cui i leader militari hanno deciso di guardare altrove.

Ospite del Defense One Tech Summit, evento a cadenza annuale che esplora come le tecnologie emergenti stiano plasmando le tattiche militari e le strategie di sicurezza nazionale del futuro, il deputy chief technology officer for critical technologies del Pentagono Maynard Holliday ha dichiarato che l’apparato della Difesa statunitense non intende utilizzare ChatGpt, perlomeno nella sua versione attuale.

“I modelli linguistici di simili dimensioni hanno una grandissima utilità, e contiamo molto di utilizzare lo strumento dei modelli generativi basati sull’intelligenza artificiale, ma sfrutteremo soltanto le nostre banche dati. I nostri modelli saranno sviluppati sui dati del Dipartimento della Difesa e istruiti con i nostri dati, e utilizzeranno i nostri metodi di calcolo, così potremo ricevere feedback su cui svolgere un lavoro d’analisi”, sono state le parole di Holliday.

Il dirigente del Pentagono ha inoltre aggiunto che in questi giorni si riunirà un gruppo di lavoro atto a individuare quali possano essere i casi d’uso dell’intelligenza artificiale, utilizzando come base lo stato dell’arte accademico e industriale per quello che riguarda questi modelli linguistici.

Dalle parole di Holliday si può interpretare quale criterio abbia spinto il Dipartimento della Difesa degli Stati Uniti a preferire uno sviluppo ex-novo (accrescendo quindi sia i tempi che le risorse richieste) di un modello di intelligenza artificiale piuttosto che appoggiarsi, almeno nelle strutture fondamentali, a sistemi già disponibili: una sana mancanza di fiducia.

I modelli linguistici attualmente disponibili al grande pubblico (ChatGpt, Bard, Claude, Sage e altri) basano il loro funzionamento su un archivio dati di dimensioni mastodontiche, attingendo da milioni di risorse disponibili online. Risorse che non devono per forza essere veritiere, come abbiamo imparato a nostre spese negli ultimi anni. Essendo uno strumento prettamente militare, un’intelligenza artificiale destinata ad un impiego bellico è intrinsecamente portata a raggiungere il massimo grado di efficienza possibile in un dato contesto e a date condizioni. L’utilizzo di informazioni devianti rischierebbe di compromettere quest’efficienza, vanificando così l’impiego operativo di questi strumenti.

Oltre alla base informativa, Holliday ha posto l’accento anche sull’importanza del processo di calcolo della macchina. La conoscenza diretta e specifica dei modelli utilizzati dall’intelligenza artificiale garantirebbe da una parte un utilizzo più efficiente degli stessi nello svolgimento di determinati compiti assegnati, e dall’altra contribuirebbe a prevenire il verificarsi di incidenti indesiderati, con possibili effetti collaterali.

Poche settimane fa era stata riportata una notizia che aveva fatto scalpore: in uno scenario simulato dall’aviazione statunitense (non è ancora ben chiaro se tale scenario fosse solo un esercizio teorico o il risultato di una simulazione vera e propria), un drone guidato dall’intelligenza artificiale avrebbe aperto il fuoco contro l’essere umano al vertice della sua catena di comando gerarchica. Tale fatto sarebbe stato legato ad un’interpretazione ‘errata’ (se così può essere definita) degli ordini impartiti al drone.

Proprio per evitare di incappare in scenari simili, i vertici militari statunitensi preferiscono spendere tempo e risorse nella realizzazione di un sistema ‘intelligente’ più facilmente controllabile e meno incline a fughe in avanti come quella appena riportata. Anche a costo di ritardare la loro comparsa sui teatri delle operazioni. Comparsa che, ad oggi, non risulta poi così urgente.

×

Iscriviti alla newsletter