Skip to main content

Perché dobbiamo rallentare lo sviluppo dell’IA. L’appello del prof. Bengio

Di Yoshua Bengio
Intelligenza artificiale

Una delle menti più brillanti dietro alla lettera co-firmata da Musk e mille esperti di intelligenza artificiale spiega perché dobbiamo frenare lo sviluppo dei sistemi in grado di superare il test di Turing (e fingersi umani)

Di recente ho firmato una lettera aperta in cui si chiede di rallentare lo sviluppo di sistemi di IA giganti, più potenti di GPT-4 — quelli che attualmente superano il test di Turing e possono quindi ingannare un essere umano facendogli credere che stia conversando con un suo simile piuttosto che con una macchina.

Ho ritenuto opportuno firmare questa lettera per segnalare all’opinione pubblica la necessità di ridurre l’accelerazione dello sviluppo dei sistemi di IA attualmente in corso a scapito del principio di precauzione e dell’etica. Dobbiamo prenderci il tempo necessario per comprendere meglio questi sistemi e sviluppare i quadri necessari a livello nazionale e internazionale per aumentare la protezione del pubblico.

È perché c’è un’accelerazione inaspettata – probabilmente un anno fa non avrei firmato una lettera del genere – che dobbiamo fare un passo indietro e che la mia opinione su questi temi è cambiata.

Non c’è alcuna garanzia che qualcuno, nel prossimo futuro, non sviluppi sistemi autonomi di intelligenza artificiale pericolosi, con comportamenti che si discostano dagli obiettivi e dai valori umani. I rischi a breve e medio termine – la manipolazione dell’opinione pubblica a fini politici, soprattutto attraverso la disinformazione – sono facili da prevedere, a differenza di quelli a più lungo termine – sistemi di IA che si rivelano dannosi nonostante gli obiettivi dei programmatori – e credo sia importante studiare entrambi.

Con l’arrivo di ChatGPT abbiamo assistito a un cambiamento nell’atteggiamento delle aziende, per le quali la sfida della concorrenza commerciale è decuplicata. C’è il rischio concreto che si precipitino a sviluppare questi giganteschi sistemi di IA, abbandonando le buone abitudini di trasparenza e di ricerca aperta che hanno sviluppato nell’ultimo decennio di ricerche sull’IA.

È urgente regolamentare questi sistemi puntando a una maggiore trasparenza e supervisione dei sistemi di IA per proteggere la società. Credo, come molti, che i rischi e l’incertezza abbiano raggiunto un livello tale da richiedere un’accelerazione anche nello sviluppo dei nostri meccanismi di governance.

Le società hanno bisogno di tempo per adattarsi ai cambiamenti, le leggi richiedono tempo per essere approvate e i quadri normativi richiedono tempo per essere messi in atto. Sembra quindi importante sensibilizzare rapidamente l’opinione pubblica, portare la questione su un maggior numero di schermi radar e incoraggiare un maggiore dibattito pubblico.

Lo dico da anni e lo ribadisco in questa lettera, che si è concentrata sulla governance per gli enormi sistemi di IA più grandi di GPT-4, non sull’IA in generale: è essenziale investire fondi pubblici nello sviluppo di sistemi di IA dedicati a priorità sociali spesso trascurate dal settore privato, come la ricerca sulla salute o per combattere meglio il cambiamento climatico. Tali applicazioni dell’IA hanno molte meno probabilità di essere utilizzate in modo improprio per scopi socialmente dannosi, a differenza di sistemi generalisti come GPT-4.

Dobbiamo stimolare gli sforzi dei ricercatori, soprattutto nelle scienze sociali e umanistiche, perché le soluzioni non comportano solo un aspetto tecnico e computazionale, ma anche – e soprattutto – considerazioni sociali e umane.

Dobbiamo continuare a lottare per il benessere dell’umanità e per lo sviluppo di applicazioni di IA vantaggiose, come quelle per affrontare la crisi climatica. Ciò richiederà cambiamenti a livello di ciascun Paese e l’adozione di trattati internazionali. Siamo riusciti a regolamentare le armi nucleari su scala globale dopo la seconda guerra mondiale, possiamo raggiungere un accordo simile per l’IA.

Nonostante ciò che può trasparire da questa lettera, sono fondamentalmente ottimista sul fatto che la tecnologia sarà in grado di aiutarci a superare le grandi sfide che l’umanità deve affrontare. Tuttavia, per affrontarle, dobbiamo pensare fin da ora a come adattare le nostre società, o addirittura reinventarle completamente.

Ecco alcune domande frequenti sulla lettera aperta. Le opinioni espresse nelle risposte non sono necessariamente condivise da tutti i firmatari della lettera.

Perché avete firmato questa lettera aperta?

Abbiamo superato una soglia critica: le macchine possono ora dialogare con noi e fingere di essere esseri umani. Questo potere può essere abusato per scopi politici a scapito della democrazia. Lo sviluppo di strumenti sempre più potenti rischia di aumentare la concentrazione del potere. Che sia nelle mani di pochi individui, di poche aziende o di pochi Paesi, questo è un pericolo per la democrazia (che significa potere al popolo, e quindi l’opposto della concentrazione di potere), per il – già fragile – equilibrio della sicurezza globale e persino per il funzionamento dei mercati (che hanno bisogno di concorrenza, non di monopoli).

Il tono della lettera non è eccessivamente allarmistico?

Nessuno, nemmeno i maggiori esperti di IA, compresi coloro che hanno sviluppato questi modelli giganti di IA, può essere assolutamente certo che strumenti così potenti, ora o in futuro, non possano essere utilizzati in modi che sarebbero catastrofici per la società. La lettera non sostiene che il GPT-4 diventerà autonomo – il che sarebbe tecnicamente sbagliato – e minaccerà l’umanità. Piuttosto, è molto più pericoloso – e probabile – ciò che gli esseri umani con cattive intenzioni o semplicemente inconsapevoli delle conseguenze delle loro azioni potrebbero fare con questi strumenti e con i loro discendenti nei prossimi anni.

Questa lettera sarà sufficiente a convincere i giganti della tecnologia a rallentare?

Anche se le speranze sono poche, vale la pena di avviare una discussione che coinvolga la società nel suo complesso. Perché nei prossimi anni dovremo fare delle scelte collettive, anche in merito a ciò che vogliamo fare con i potenti strumenti che stiamo sviluppando. Ho persino il sospetto che molti in queste aziende sperino in una regolamentazione che uniformi il campo di gioco: da quando c’è ChatGPT gli operatori meno prudenti hanno un vantaggio competitivo e possono quindi farsi strada più facilmente riducendo il livello di prudenza e di controllo etico.

È sufficiente una pausa di sei mesi? Questo sforzo non è inutile?

Lo stesso si potrebbe dire dei nostri sforzi per combattere il cambiamento climatico. Molti danni sono già stati fatti all’ambiente, l’inerzia del nostro tessuto industriale è ostinata – per non parlare degli interessi – e gli sforzi di scienziati e attivisti del clima per deviare la nostra traiettoria collettiva non sembrano funzionare. Dobbiamo arrenderci? Certamente no. Ci sono sempre modi per fare meglio, per ridurre i danni futuri, e ogni passo nella giusta direzione può essere utile.

I timori per i sistemi di intelligenza artificiale non sono fantascienza?

Esiste già un vasto corpo di studi che documenta i danni attuali che la regolamentazione aiuterebbe a minimizzare, dalle violazioni della dignità umana come la discriminazione e i pregiudizi all’uso militare dell’IA, come i droni autonomi in grado di uccidere.

Dovremmo fermare del tutto lo sviluppo di sistemi di IA?

La lettera non dice questo, ma parla solo di sistemi che non sono ancora stati sviluppati e che saranno più potenti di GPT-4. Tuttavia, mi sembra ovvio che dobbiamo accettare un certo rallentamento del progresso tecnologico per garantire una maggiore sicurezza e proteggere il benessere collettivo. La società ha messo in atto potenti normative per le sostanze chimiche, per l’aviazione, per i farmaci, per le automobili, ecc. Mi sembra che i computer, che oggi hanno un’enorme influenza su molti settori della nostra società, meritino considerazioni analoghe.

Perché ha firmato una lettera con persone che hanno posizioni politiche opposte alle sue?

Si tratta di una lettera aperta su un tema specifico. Firmandola, non ci si vincola a tutte le altre dichiarazioni dei firmatari. Per quanto riguarda i rischi esistenziali e a lungo termine per l’umanità, non sono allineato con molte delle cose che sono state scritte su questo argomento (“lungimiranza”). Certo, i rischi a lungo termine sono importanti – ed è per questo che mi batto per una migliore azione sulle questioni climatiche. Ma questi rischi devono essere soppesati rispetto alla probabilità che si concretizzino, e più ampio è l’orizzonte temporale, più incerti sono questi rischi. In confronto, i danni causati agli esseri umani oggi in vita non dovrebbero essere messi da parte, perché questi rischi a breve termine sono molto più tangibili. Ritengo quindi che si debbano considerare tutti i rischi, in base all’entità del loro impatto e alla loro probabilità stimata, il che include i rischi in diversi orizzonti temporali. E dobbiamo usare la ragione e la scienza per valutare tutto questo, senza tralasciare la nostra empatia per gli esseri in carne e ossa che oggi soffrono.

La società è pronta ad affrontare l’arrivo di queste nuove e potentissime tecnologie?

L’umanità sta affrontando diverse crisi globali che probabilmente si aggraveranno: nella salute pubblica, nell’ambiente, nella sicurezza e nella stabilità militare e politica, nelle disuguaglianze e nelle ingiustizie e, naturalmente, nei rischi posti dallo sviluppo incontrollato dell’IA. Dubito che l’attuale organizzazione della nostra società, a livello nazionale e globale, sia adeguata ad affrontare queste sfide. A breve termine, la regolamentazione mi sembra essenziale. Spero che a lungo termine sia sufficiente, ma ora dobbiamo considerare la possibilità che l’organizzazione sociale che ha funzionato nel secolo scorso non sia più adatta a queste crisi globali.

Yoshua Bengio è professore ordinario presso il Dipartimento di Informatica e Ricerca Operativa dell’Université de Montreal, nonché fondatore e direttore scientifico di Mila e direttore scientifico di IVADO. Considerato uno dei leader mondiali nel campo dell’intelligenza artificiale e del deep learning, è il destinatario del Premio A.M. Turing 2018 insieme a Geoff Hinton e Yann LeCun, noto come il premio Nobel dell’informatica.

Questo articolo è apparso sul suo blog con il titolo “Slowing down development of AI systems passing the Turing tested è stato tradotto da Formiche.net

×

Iscriviti alla newsletter