Skip to main content

Atomica, se l’algoritmo sgancia la bomba. La richiesta Usa vista da Alegi

“And one of the fingers on the button will be German…”, cantava Tom Lehrer, una sorta di Jannacci americano. Correva l’anno 1965 e la preoccupazione era che la proposta per una Multi Lateral Force desse alla Germania accesso alle armi atomiche appena vent’anni dopo la fine della Seconda guerra mondiale. Nell’era dell’intelligenza artificiale, il problema non è tanto chi abbia il dito sul bottone quanto che non ci sia più né dito né bottone, e che gli algoritmi decidano chi deve morire, senza alcun intervento umano

Stati Uniti, Regno Unito e Francia hanno già assunto l’impegno formale di lasciare agli esseri umani l’ultima parola sull’impiego delle armi atomiche. Da oggi, l’invito a fare altrettanto è esteso anche a Russia e Cina, per bocca di Paul Dean, Sottosegretario supplente principale dell’Ufficio per il Controllo degli Armamenti, la Deterrenza e la Stabilità del Dipartimento di Stato. Se il titolo è wertmulleriano, la questione è semplice: evitare che un algoritmo decida da solo di lanciare armi che potrebbero scatenare la fine del mondo. Il Segretario di Stato Anthony Blinken l’aveva sollevata il 26 aprile con l’omologo cinese Wang Yi, senza riceverne risposta. Di qui la dichiarazione pubblica di Dean, dal vago sapere di outing per stanare chi ancora sta sul pero.

Intrecciando etica e tecnologia, la questione è più complessa di quanto sembri. Da un lato c’è la presunzione che l’uomo legga i segnali meglio delle macchine; dall’altro la capacità dimostrata dei sistemi di intelligenza artificiale di catturare e valutare enormi quantità di dati disparati in tempi brevissimi. Nel primo caso, l’esempio è il tenente colonnello Stanislav Petrov, che il 26 settembre 1983 decise che i satelliti di scoperta sovietici avevano dato per errore l’allarme di attacco nucleare americano. Aveva ragione: i cinque avvisi di lancio non erano causati da missili americani ma dal calore del sole riflesso dalle nuvole. Nel secondo, l’incapacità degli operatori umani di allineare le notizie sparse e pronosticare i grandi attacchi di Pearl Harbor, dell’11 settembre o del 7 ottobre o le piccole tragedie come l’attacco del 3 ottobre 2015 all’ospedale di Medici Senza Frontiere a Kunduz, in Afghanistan. Nessuna delle due opzioni, insomma, può vantare capacità dimostrabilmente migliori dell’altra.

Ma c’è di più. Forme di intelligenza artificiale note come decision-support systems sono da tempo in uso per collazionare le informazioni, valutarle e presentare ai decisori le soluzioni che meglio si attagliano. Quando l’auto si trova di fronte a una situazione imprevista, i sistemi di guida automatica dei veicoli fanno esattamente questo – compreso decidere tra evitare il pedone e causare un tamponamento a catena. Certo, non si tratta di ordigni atomici, ma la sfida etica è qualitativamente del tutto analoga. In questo senso, l’unica differenza è la quantità di distruzione che il sistema automatico è in grado di causare.

In attesa che Cina e Russia rispondano formalmente alla richiesta Usa, si può solo aggiungere una considerazione circa il valore di un impegno del genere nell’attuale contesto di rinnovata competizione globale tra le grandi potenze. Se già Guglielmo II derideva i trattati come “pezzi di carta”, che valore avrebbe davvero oggi un impegno che una o più delle parti non ha intenzione di rispettare?

Forse solo quello di indicare quali tecnologie siano ormai a portata di mano, come si pensi di usarle e quali timori questo susciti già oggi.

Per chi volesse ascoltare la canzone di Tom Lehrer, può farlo qui.

×

Iscriviti alla newsletter