Skip to main content

Piccoli (troppo) passi avanti sull’IA. Il summit inglese letto da Bani

Di Marco Bani

I leader politici si confermano consapevoli che l’intelligenza artificiale pone gravi sfide e opportunità e ribadiscono di essere pronti a intraprendere azioni adeguate. Ma resta sempre l’incognita di tradurre il tutto in norme efficaci

“L’ago della bilancia si è spostato a favore dell’umanità”. Con queste “sobrie” parole, Rishi Sunak, primo ministro britannico, ha chiuso la prima conferenza mondiale sulla sicurezza dell’Intelligenza artificiale. Ma è davvero così? L’umanità è più sicura? L’evento, senza dubbio di alto profilo, con ospiti importanti tra ministri e “rockstar tech”, arriva dopo un anno di intensa escalation nelle discussioni globali sulla sicurezza dell’intelligenza artificiale, dopo il lancio di ChatGPT esattamente un anno fa. La capacità, al limite della magia, del chatbot di OpenAI di rispondere con testi e immagini alle nostre richieste ha dato vita a una scuola di pensiero secondo cui l’intelligenza artificiale potrebbe, prima o poi, rappresentare un rischio esistenziale per l’umanità, e ha spinto i politici di tutto il mondo a valutare se e come regolamentare i nuovi sviluppi tecnologici.

L’evento inglese è sembrato più uno show che un ritrovo di statisti e di esperti: una riedizione di X-Factor dove si applaudiva più forte chi sparava l’esagerazione più grossa. Tutto sembrava concentrato sullo spettacolo da mostrare, a partire dalla sede dell’evento, Bletchley Park, il luogo dove nacque l’informatica moderna: qui, infatti, furono ideate le macchine che decodificarono il codice Enigma dei nazisti, formando i progetti per i primi computer programmabili. Sentendo il peso di questa storia, Michelle Donelan, ministro della Scienza e della Tecnologia del Regno Unito, ha aperto lo “show” sperando che i delegati riuniti per il vertice avrebbero contribuito a un risultato di simile portata, “alzando i confini di ciò che è effettivamente possibile”, facendosi “architetti dell’era dell’intelligenza artificiale”, con il potere di plasmare il futuro della tecnologia e gestirne i potenziali svantaggi.

Purtroppo, grandi dichiarazioni nascondono spesso piccoli risultati. Diciamo che la Dichiarazione finale sembra un testo appena uscito da ChatGPT da quanto è scontato e banale: l’intelligenza artificiale è ricca di opportunità, ma bisogna stare attenti ai rischi, per questo dobbiamo lavorare tutti insieme. Questa Dichiarazione è come un ritornello di una vecchia canzone che ha ormai stufato: segnala che i leader politici sono consapevoli che l’intelligenza artificiale pone gravi sfide e opportunità e che sono pronti a intraprendere azioni adeguate. Ma resta sempre l’incognita di tradurre il tutto in norme efficaci, capaci di ridistribuire l’indiscusso potere dell’intelligenza artificiale. Nell’inconsistenza dei risultati, l’unico che ne è uscito vincitore è il premier britannico Sunak, che può vantare il successo di aver organizzato il primo summit sulla sicurezza AI, puntando i riflettori sul tema e, nonostante le critiche, invitando la Cina, nonostante le critiche statunitensi. Ma per il futuro dell’intelligenza artificiale niente di nuovo dal fronte occidentale.

Anzi, si stanno portando avanti sempre gli stessi sbagli.

Primo: pensare ai rischi a lungo termine sottovalutando i problemi degli attuali sistemi di intelligenza artificiale. La decisione di concentrare il vertice attorno ai rischi dell’esistenza umana, alla sicurezza informatica e al terrorismo, è pericoloso, poiché distoglie l’attenzione dai rischi molto reali e già esistenti che l’IA sta causando, come la sorveglianza o la disinformazione, che stanno punendo persone appartenenti a gruppi già emarginati. Significa inoltre dimenticarsi di tutta la discussione fatta negli ultimi dieci anni sull’etica, sulla trasparenza, sulla responsabilità degli algoritmi, di ignorare le molte proposte fatte per rendere l’intelligenza artificiale più inclusiva e sostenibile.

Secondo: far contenti tutti. Quando imprese e governi sono d’accordo su tutto, spesso vuol dire che non si è fatto niente. La volontà di essere regolamentati da parte dei grandi attori e fornitori di intelligenza artificiale a livello globale potrebbe essere vista anche come mossa a loro favore: richiedendo l’approvazione del governo prima dei test pubblici e del rilascio dei prodotti, si innalzano barriere molto alte all’ingresso per chiunque sogni di entrare nell’economia dell’intelligenza artificiale perché si favorisce chi già possiede un grande patrimonio di dati e le risorse necessarie per lo sviluppo.  È fondamentale promuovere una comunità open source, come esiste adesso nel settore della sicurezza informatica. Non solo per dare più opportunità di aprire il mercato con nuove soluzioni, ma anche per evitare che sistemi non regolamentati creati da modelli open source possano essere utilizzati per usi illeciti ed essere troppo pericolosi per essere distribuiti liberamente.

Terzo: considerare le istituzioni pubbliche e i governi come arbitri o commentatori. Ma questi ultimi non vincono le partite, assistono solo alla “partita”. Dobbiamo aumentare drasticamente il sostegno pubblico alla ricerca sull’intelligenza artificiale, sia per lo sviluppo che per la sicurezza, per garantire che diventi una tecnologia per il bene comune nei secoli a venire. Inoltre, i governi devono chiedere più trasparenza: finora le uniche persone che hanno testato la sicurezza dei nuovi modelli di intelligenza artificiale sono state le stesse aziende che li hanno sviluppati. È come se gli studenti si correggessero da soli i compiti a casa.

Quarto: non essere ambiziosi. Quello che il vertice non ha fatto è stabilire un percorso di consenso verso la definizione di standard internazionali e approfondire quali meccanismi istituzionali attivare per la collaborazione internazionale. A parte i Paesi che hanno firmato, non è chiaro come allargare il consenso ai molti governi mancanti. I prossimi passi sono altre due conferenze annunciate, in Corea del Sud e in Francia. Un modello che sembra ricalcare le riunioni COP sul clima, che purtroppo abbiamo visto essere sempre più fallimentari. Risultati poco stimolanti per un evento “che ha spostato l’ago della bilancia a favore della comunità”.

E quindi? L’Intelligenza artificiale è una minaccia per la sicurezza nazionale o per la società? È un’arma geopolitica? È un modo di aiutare persone? La risposta è: un po’ di tutto. Fare politiche tecnologiche è come fare una gara di decathlon: non abbiamo il lusso di scegliere un solo sport. Non si può scegliere tra equità, privacy, sicurezza o altro.  Certo potremo iniziare a parlare meno delle similitudini tra AI e la bomba nucleare e approfondire di più l’impatto possibile su educazione, sanità, ambiente. Fare meno conferenze e discutere di più su come rendere meno energivori i processi legati all’utilizzo dell’intelligenza artificiale. Ostentare meno dichiarazioni su come la tecnologia farà perdere posti di lavoro in un futuro prossimo (è qualcosa che sento da almeno 10 anni)  e sviluppare più attenzione agli attuali sfruttamenti nel mondo del lavoro, da chi lavora per allenare modelli di intelligenza artificiale per pochi dollari all’ora, a chi viene discriminato da un algoritmo.

Forse tutto questo richiede qualcosa di più di uno show, un processo dall’alto verso il basso dominato da élite tecnocratiche, ma una seria partecipazione democratica, che aiuti a far capire meglio gli effetti dello sviluppo tecnologico sull’intera società.

Forse ha ragione Elon Musk, che pur avendo partecipato all’evento di Bletchley Park, in un tweet prende in giro i governi, svelando le loro possibili intenzioni: parlare di intelligenza artificiale per dimostrare di averne il potere. Anche quando non ce l’hai. “Dichiariamo che l’IA pone un potenziale rischio catastrofico per l’umanità… e non vediamo l’ora di svilupparlo per primi!”.

×

Iscriviti alla newsletter