Skip to main content

Ecco Lavender, l’intelligenza artificiale dietro ai bombardamenti israeliani nella Striscia

L’esercito israeliano sta facendo ampio uso dell’Intelligenza Artificiale per facilitare le operazioni sul campo di battaglia. Con delle modalità che offrono importanti spunti di riflessione

“Lavender”, lemma inglese per lavanda. Questo sarebbe il nome dello strumento di Intelligenza Artificiale impiegato estensivamente dalle Israeli Defense Forces all’interno dell’Operazione “Iron Sword”, l’invasione militare della striscia di Gaza lanciata in risposta agli attacchi terroristici di Hamas del 7 ottobre 2023. La sua esistenza è stata rivelata da un’inchiesta della testata israelo-palestinese +972, nella quale viene delineato il suo funzionamento, così come i processi ad esso sottostanti. Fornendo un quadro piuttosto singolare: l’influenza di Lavender sulle operazioni militari israeliane è stata tale che i risultati della macchina AI-based venivano considerati “come se si trattasse di una decisione umana”.

Il sistema Lavender è stato sviluppato con l’obiettivo di poter individuare i sospetti operativi (di qualsiasi rango) afferenti sia ad Hamas che alla Jihad islamica palestinese, così da poter attuare bombardamenti mirati alla loro eliminazione. Secondo le fonti consultate da +972 l’esercito israeliano, soprattutto durante le prime settimane della guerra ancora in corso, ha fatto un uso estensivo dei risultati forniti da Lavender: in totale, circa trentasettemila palestinesi sarebbero stati designati come sospetti militanti per possibili attacchi aerei o missilistici.

Forme e modi dell’impiego dell’Intelligenza Artificiale in un contesto bellico sono oggi una questione di primaria importanza all’interno del dibattito pubblico. Uno degli aspetti più stressati è quello della necessità di mantenere il ruolo di decisore finale all’interno della dimensione umana. Eppure, i resoconti forniti dall’inchiesta sembrano suggerire una realtà diversa, almeno sul piano pratico. Una delle fonti contattate dalla testata israelo-palestinese ha dichiarato che il personale umano spesso serviva soltanto come “timbro di approvazione” per le decisioni prese dalla macchina, spendendo solo “venti secondi” per la verifica dell’idoneità del bersaglio attraverso l’utilizzo della discriminante del sesso dello stesso, poiché le strutture militari di Hamas e della Jihad Islamica Palestinese sono composte esclusivamente da individui di sesso maschile.

La fonte con più esperienza tra quelle che hanno accettato di parlare con +972 afferma che Lavender “si è dimostrato valido. C’è qualcosa nell’approccio statistico che ti impone una certa norma e un certo standard. C’è stata una quantità sorprendente di bombardamenti in questa operazione. A mia memoria, non ha precedenti. Ho molta più fiducia in un meccanismo statistico che in un soldato che ha perso un amico due giorni fa. Tutti, me compreso, hanno perso delle persone il 7 ottobre. La macchina è in grado di farlo freddamente. E questo ha reso tutto più facile”. Tutto ciò nonostante sia noto il fatto che il sistema commetta “errori” in circa un caso su dieci, contrassegnando occasionalmente individui che hanno solo un legame debole con i gruppi militanti, se non addirittura nessun legame.

Ma Lavender non è l’unico strumento AI-based di cui le forze armate israeliane si avvalgono nel contesto di “Iron Sword”. Accanto ad esso possiamo trovare anche “Gospel”, un programma che anziché individuare possibili individui come bersagli suggerisce quali siano gli edifici e le strutture all’interno delle quali operano i militanti islamisti, e “Where’s Daddy?”, che ha un funzionamento complementare a quello di Lavender: mentre quest’ultimo individua possibili bersagli per attacchi, il primo permette di sapere quando gli individui selezionati si trovano nelle loro residenze familiari, considerate un bersaglio più facile da attaccare rispetto ad altre tipologie di strutture. Anche in questo caso, l’informazione deve essere verificata da un operatore umano.

Fino al 7 ottobre, le linee-guida delle Idf prevedevano l’utilizzo di questa tipologia di approccio all’eliminazione dei bersagli, caratterizzato da rischi elevati di danni collaterali, soltanto nei confronti di esponenti senior delle strutture militari di Hamas o della Jihad islamica palestinese. Tuttavia, con il lancio di “Iron Sword” questa policy è stata rivista, includendo all’interno del bacino dei potenziali bersagli militanti di ogni grado. E se il lavoro di tracking su pochi e selezionati individui poteva essere svolto da un gruppo ristretto di militari, un allargamento così vasto ha reso pressoché necessario l’utilizzo dell’Intelligenza Artificiale, che all’atto pratico ha assunto un ruolo apicale nel processo di decision-making. Fornendo spunti preziosi per gli sviluppi futuri dell’IA, così come del suo impiego all’interno della dimensione militare.



×

Iscriviti alla newsletter