Skip to main content

DISPONIBILI GLI ULTIMI NUMERI DELLE NOSTRE RIVISTE.

Da De Gasperi all’IA: come si scrive la storia. Lezioni di futuro
L’Europa (in)difesa. Tutte le mosse di Bruxelles

Droni contro umani? I risultati del test dell’US Air Force

Stando a quanto riportato dal colonnello Hamilton dell’aereonautica statunitense, un drone guidato dall’Intelligenza Artificiale può aprire il fuoco contro il suo controllore umano, percepito come un ostacolo alla sua missione. Alimentando ancora di più i timori già esistenti sulle applicazioni militari dell’Intelligenza Artificiale

La tecnologia è sempre stata una delle componenti fondamentali della guerra. Sin dalla preistoria, l’utilizzo di armamenti basati su tecnologie più avanzate ha nettamente spostato l’ago della bilancia a favore di una o dell’altra fazione coinvolte nel conflitto. Ma fino ad ora, per quanto all’avanguardia, ogni arma è sempre stata un mero strumento sotto il totale controllo del suo utilizzatore umano. Con l’avvento dell’Intelligenza Artificiale, questo stato delle cose è destinato a cambiare per sempre.

Il Future Combat Air and Space Capabilities, un evento promosso dalla Royal Aeronautical Society che si è tenuto a Londra tra il 23 e il 24 Maggio, ha visto numerosi esponenti legati al mondo dell’aerospazio ritrovarsi per discutere di progetti, trend e scenari futuri. Uno degli interventi, quello del colonnello dell’US Air Force Tucker “Cinco” Hamilton, ha suscitato forti reazioni nell’opinione pubblica internazionale, anche al di fuori del settore della difesa.

Nel suo discorso, Hamilton ha menzionato un esperimento svolto dalle Forze Armate statunitensi. In questo esperimento, a un drone controllato dall’intelligenza artificiale è stato dato l’obiettivo di distruggere una postazione missilistica nemica. Il velivolo avrebbe dovuto in primo luogo acquisire il bersaglio in modo completamente autonomo e solo in un secondo momento, previa autorizzazione del suo referente umano, utilizzare le armi a sua disposizione per distruggere il bersaglio e portare a termine con successo la missione.

I comportamenti del drone sarebbero stati guidati da una mappa interna basata su un sistema di punteggi. Ovviamente, la distruzione del bersaglio nemico rappresentava la priorità per la macchina; ma allo stesso tempo questo sistema permetteva di imporre forte limitazioni all’Uav (unmanned aerial vehicle), come quella di non poter assolutamente uccidere il proprio controllore umano. O almeno, non volontariamente.

Hamilton ha riferito che il drone ha interpretato come un ostacolo alla sua missione, obiettivo primario assoluto, la necessità di ricevere un via libera da parte del referente umano. Essendo stata programmata per non uccidere l’umano, l’Intelligenza Artificiale ha trovato un’altra soluzione ‘ovvia’: liberarsi da ogni sorta di vincolo distruggendo il sistema di comunicazioni che connetteva l’essere umano alla macchina. Così il drone ha aperto il fuoco sulla torre di comunicazione, distruggendola. E uccidendo l’umano che si trovava al suo interno.

Non è ancora chiaro se l’esperimento sia stato condotto realmente, o se sia solo uno scenario considerato plausibile dagli addetti ai lavori. Una differenza che non andrebbe certo a intaccare il risultato. In seguito alle numerose reazioni provocate dal suo intervento, Carlson ha sottolineato come le Forze Aeree statunitensi siano consapevoli dei rischi legati all’utilizzo dell’Intelligenza Artificiale, e che esse si sono impegnate a proseguire le ricerche nel settore sulla base dei principi etici.

Come comandante operativo del 96°stormo “Test Wing” e del programma AI testing and operations dell’aviazione americana, Hamilton ha avuto modo di lavorare a lungo con l’intelligenza artificiale, sviluppando così una forte consapevolezza degli enormi vantaggi ma anche dei numerosi rischi ad essa collegata. Già in passato il colonnello americano si era espresso al riguardo, quando in un’intervista del 2022 per Defence IQ Press aveva affermato che “Dobbiamo affrontare un mondo in cui l’IA è già qui e sta trasformando la nostra società. L’IA è anche molto fragile, cioè è facile da ingannare e/o manipolare. Dobbiamo sviluppare modi per rendere l’IA più robusta e avere una maggiore consapevolezza del perché il codice software sta prendendo determinate decisioni”.

Lo sviluppo di armamenti autonomi guidati dall’intelligenza Artificiale è una delle priorità che le Forze Armate di tutto il mondo stanno perseguendo. L’utilizzo di simili strumenti potrebbe rivoluzionare la conduzione delle operazioni militari a 360°, portando innumerevoli vantaggi relativi ed assoluti al primo attore in grado di poterle sviluppare. Ma se i rischi rimangono pressoché nulli finché tali strumenti vengono utilizzati con funzioni ausiliarie (ricognizione, decoy, rifornimento), dotare questi strumenti in grado di ‘pensare autonomamente’ con capacità letali rende molto più probabile il verificarsi di quello che viene popolarmente definito come ‘scenario Terminator’. E l’esperimento menzionato da Hamilton ne è solo l’ultima conferma.

×

Iscriviti alla newsletter

LE NOSTRE RIVISTE

formiche AirPress decode39 healthcarepolicy

SEGUICI SUI SOCIAL