Skip to main content

Intelligenza artificiale e giustizia sociale: un equilibrio impossibile? Parla Annicchino

Dalla rivoluzione cognitivo-industriale evocata da papa Francesco al G7 fino al manifesto sulla superintelligenza, l’IA è ormai il banco di prova della modernità. Pasquale Annicchino, docente dell’Università di Foggia, analizza per Formiche.net i rischi sociali, politici ed esistenziali di un cambiamento che corre più veloce della nostra capacità di reagire

La notizia dei licenziamenti di massa annunciati da Amazon, diretta conseguenza dei processi di automatizzazione permessi dallo sviluppo dell’Intelligenza Artificiale, ha riacceso i riflettori sui rischi legati all’arrivo dell’IA nella nostra realtà. Dalla tenuta dei sistemi capitalisti e democratici, fino alla sopravvivenza dell’umanità stessa, quello dell’IA è un tema che deve essere affrontato con estera attenzione. Per un punto sulla situazione Formiche.net ha contattato Pasquale Annicchino, professore dell’Università di Foggia, che ha accettato di rispondere ad alcune delle nostre domande.

Crede che ci sia una consapevolezza diffusa dei rischi sociali legati allo sviluppo dell’IA?

In parte sì. Esiste già una ampia letteratura in materia, e c’è un dibattito in corso al riguardo. Ma c’è un problema di metodo: noi viviamo in un mondo in cui la curva della velocità dell’innovazione della tecnologia non è necessariamente seguita da una curva di uguale velocità sia della regolazione che della riflessione sociale in materia. Possiamo dire che generalmente noi “subiamo” la tecnologia da questo punto di vista, soprattutto per ciò che riguarda i rischi sociali, a partire dall’alfabetizzazione digitale.

Che intende con “alfabetizzazione digitale”?

Intendo che ci sia un’assenza di alfabetizzazione, e quindi di comprensione, dell’impatto delle tecnologie, da cui si genera un serio problema di allineamento tra la nostra capacità di comprendere e la nostra capacità di reagire alla tecnologia. Se andiamo a rivedere l’intervento di Papa Francesco al G7 italiano sull’Intelligenza Artificiale, notiamo che già allora il pontefice utilizzava le espressioni “rivoluzione cognitivo-industriale” e “trasformazioni epocali”, espressioni che indicano un mutamento sostanziale nell’interazione tra le persone e le istituzioni. Tema su cui credo che non ci sia stata ancora un’ampia e approfondita riflessione pubblica approfondita sul tema. E questo è, secondo me, il primo grande rischio.

Da cui ne derivano altri?

Esattamente. Come quelli legati al mondo del lavoro, alla sorveglianza, alla lesione dei diritti civili. In una fase di improvvisa accelerazione tecnologica, con annessa trasformazione di paradigma, si vengono a creare dei vincitori e dei vinti, e il punto cruciale è capire come garantire stabilità sociale nel contesto di questo cambio di paradigma.

Ci sono delle best practices che già sono state adottate, oppure ancora dobbiamo costruire tutta da zero?

Credo che sia difficile individuare delle best practices quando lo scenario e la superficie del possibile conflitto sociale sono in continua mutazione. Sicuramente un trend che noi possiamo individuare è, appunto, quella dell’alfabetizzazione digitale della formazione. Ad esempio, inserire moduli di formazione sul digitale, sulle etiche e sulla regolazione di queste tecnologie in tutti gli studi che vengono fatti, studi per fare l’insegnante delle scuole medie, delle scuole superiori, piuttosto che il professore universitario, il docente di medicina. Qualsiasi professione sarà impattata da queste tecnologie e quindi chiunque è chiamato a riflettere sul loro impatto etico e sociale.

L’Italia si sta muovendo in questo senso?

Purtroppo, il nostro Paese è molto in difficoltà in questo senso, perché è molto in difficoltà sul tema in generale, come confermano tutti i dati sull’educazione e sulla formazione. A me pare, nonostante nella strategia nazionale del governo italiano alcune di queste cose siano sottolineate, che dal punto di vista pratico non stiamo facendo abbastanza.

Oltre ai rischi sociali, che potrebbero minare le fondamenta della società umana, dietro all’Intelligenza Artificiale si celano però anche rischi “politici” e veri e propri rischi esistenziali. Partiamo dia primi. Che opinione ha al riguardo?

Alcuni definiscono questi rischi come “rischi epistemici”, e riguardano soprattutto la dimensione della comunicazione e della tenuta dei sistemi democratici, e in particolare le procedure in cui le persone che hanno opinioni differenti sui fatti si confrontano per operare delle scelte politiche. Una cosa che ha valore soprattutto nel contesto della cosiddetta guerra cognitiva, come evidenziato da importanti studi, realizzati anche del Ministero della Difesa Italiana su questo, poiché questa dinamica rischia di minare proprio la questione dell’esistenza stessa dei fatti, stressando ulteriormente la polarizzazione sociale.

Mentre che percezione ha riguardo ai rischi più “esistenziali”? Penso nello specifico al manifesto sulla superintelligence firmato uscito negli scorsi giorni. Che ne pensa?

Il manifesto colpisce innanzitutto per i firmatari, perché tra questi ci sono persone autorevoli e di alto profilo, con opinioni politiche molto diverse. Credo che però quel manifesto vada indagato in modo dinamico e in prospettiva, soprattutto in relazione all’altra lettera pubblica del 2023 pubblicata dal Future for Life Institute, che chiedeva la pausa degli esperimenti di tecnologie più potenti di GPT-4, ma solo per sei mesi. Qui invece c’è un invece un vero e proprio cambio di passo, dove addirittura si chiede di bloccare non una cosa tecnica rispetto a determinati esperimenti sulla tecnologia dell’Intelligenza Artificiale, ma si introduce questa nuova categoria di “super intelligence” per indicare un’IA superi con capacità cognitive superiori a quelle umane. Un cambio di passo che però ha attirato delle critiche.

Che genere di critiche?

Critiche secondo cui invece di concentrarsi sui problemi che già oggi ci pone l’IA, ci soffermiamo su quelli che eventualmente verranno in futuro, e alcuni lo leggono anche come un modo di bypassare il dibattito sulle questioni attuali spostando il mirino su quelle future. Ovviamente, questa questione del rischio esistenziale sconta un paradosso dettato dal fatto che alcuni attori molto importanti sono molto restii a imporre delle pause agli esperimenti perché scegliendo di fermare l’innovazione risulterebbero perdenti nella corsa tecnologica. Quindi bisogna capire quanto effettivamente, si possa stabilire una regolazione globale di questo fenomeno. Ma ci sono molti ostacoli di fronte  a questa eventualità.


×

Iscriviti alla newsletter