Skip to main content

Un antitodo per la responsabilità etica nell’IA

Di Alessandro Della Rocca

In definitiva l’IA produce delle scelte algoritmiche. L’uomo, invece, non solo sceglie, ma è capace di decidere. Pertanto la radice etica che dovrebbe guidare le scelte relative all’AI è quella di non privare mai l’uomo della capacità di decidere, delegando alle macchine tale facoltà. L’intervento di Alessandro Della Rocca (System Management)

Nel 2014, Nick Bilton, editorialista del New York Times così si esprimeva sui rischi della IA: “Gli sconvolgimenti dell’IA possono intensificarsi rapidamente e diventare più spaventosi e persino catastrofici. Immaginate come un robot medico, originariamente programmato per curare il cancro, potrebbe concludere che il modo migliore per cancellare il cancro è sterminare gli umani che sono geneticamente inclini alla malattia”.

Dopo 10 anni, con l’avvento delle GenAI, dimostrazione delle potenzialità che le intelligenze artificiali stanno mettendo in campo e possono esprimere, questa frase sembrerebbe essere ancora più inquietante. Eppure, come in ogni opera dell’uomo, è necessario analizzare in maniera obiettiva e lucida, quali sono i benefici del suo utilizzo, i rischi e, da qui chiedersi quali sono i risvolti e le responsabilità etiche che ne derivano.

Negli ultimi due anni abbiamo assistito ad una accelerazione senza precedenti nella potenza espressiva dell’IA che ha portato ad una vera e propria “democratizzazione” nell’utilizzo di questo strumento da parte di un target di utenti estremamente ampio e nei settori più svariati. Potremmo affermare che, ad oggi, non c’è settore che non sia influenzato o sia, potenzialmente influenzabile, dalla IA.

Restringendo il campo al solo panorama delle aziende del settore IT (ad un tempo il erogatori e fruitori della tecnologia AI) innumerevoli sono i campi di applicazione e i vantaggi che ne possono nascere.

Si pensi all’utilizzo dell’IA nell’ambito della cybersecurity e delle infrastrutture critiche. Come è vero che i criminali informatici sfruttano dei modelli IA per sferrare attacchi sempre più sofisticati alle infrastrutture target è anche vero che, lo stesso strumento, ha immense potenzialità per poter essere utilizzato anche dagli operatori chiamati a difenderle.

Come poi non pensare alle applicazioni della IA che, man mano, stanno facendosi sempre più strada nel mondo del project management. Attraverso algoritmi ad-hoc il manager può avere supporto alle decisioni sulla stima dei costi, allocazione delle risorse, differenti modalità di delivery e analisi del rischio, migliorandone l’efficacia e la precisione.

Infine, è ormai diventato quasi uno standard de-facto, nel lavoro quotidiano di uno sviluppatore software utilizzare tools chiamati di “co-piloting” offerti dai più diffusi ambienti di sviluppo che forniscono risposte istantanee ma anche vero e proprio codice già pronto da poter utilizzare. Questi strumenti possono sicuramente aumentare la produttività ma anche la velocità con la quale si apprendono nuovi pattern e tecniche di programmazione.

Perché allora, da più parti, si levano voci catastrofiste e moniti sui potenziali rischi di un utilizzo massivo dell’IA? Il problema è talmente importante e potenzialmente deflagrante, che le istituzioni sovranazionali e nazionali hanno varato e stanno varando codici di condotta etica per regolamentare l’implementazione, la fornitura, l’utilizzo e la governance degli strumenti di IA. Basti pensare all’ AI Act emanato dall’Unione Europea e recepito dall’Italia nei mesi scorsi. Una trattazione esaustiva dei risvolti etici richiederebbe molto più spazio e tempo (sterminate sono le bibliografie sul tema nei vari campi del diritto, della filosofia, della stessa etica).

Conviene allora concentrarsi su un aspetto che può, a mio avviso, illuminare tutte le riflessioni successive.

L’IA è, fondamentalmente, un mezzo inventato dall’uomo (come lo sono il coltello, la macchina a vapore, l’automobile, Internet) per risolvere un problema. Alla base del suo funzionamento vi sono operazioni algebriche concatenate tra di loro che agiscono su una serie più o meno grande di dati che vengono analizzati. Da tali analisi si producono risultati statistici di correlazione che contribuiscono a “rinforzare” il processo di apprendimento dell’algoritmo.

Da quanto sopra detto possiamo affermare come l’IA non è nata per sostituirsi all’uomo e i suoi effetti dipendono, in ultima istanza, cosi come per l’automobile e il coltello, dall’utilizzo che l’uomo ne fa. L’IA è a supporto dell’uomo che rimane, e deve rimanere, in definitiva, l’ultimo e l’unico responsabile del suo utilizzo.

Dalla logica di funzionamento delle AI emerge anche il rischio di ridurre la complessità e l’unicità di ogni persona ad un vettore algebrico da analizzare che, sulla base di calcoli matematici, può essere inserito in un cluster di appartenenza.

In definitiva l’IA produce delle scelte algoritmiche. L’uomo, invece, non solo sceglie, ma è capace di decidere. Pertanto la radice etica che dovrebbe guidare le scelte relative all’AI è quella di non privare mai l’uomo della capacità di decidere, delegando alle macchine tale facoltà.

Questo, in ultima istanza, l’antidoto contro le paure espresse da Nick Bilton all’inizio e la chiave per far si che l’IA migliori, in maniera sostenibile e ragionevole le nostre vite e la nostra società.

 

×

Iscriviti alla newsletter