Skip to main content

“L’ago della bilancia si è spostato a favore dell’umanità”. Con queste “sobrie” parole, Rishi Sunak, primo ministro britannico, ha chiuso la prima conferenza mondiale sulla sicurezza dell’Intelligenza artificiale. Ma è davvero così? L’umanità è più sicura? L’evento, senza dubbio di alto profilo, con ospiti importanti tra ministri e “rockstar tech”, arriva dopo un anno di intensa escalation nelle discussioni globali sulla sicurezza dell’intelligenza artificiale, dopo il lancio di ChatGPT esattamente un anno fa. La capacità, al limite della magia, del chatbot di OpenAI di rispondere con testi e immagini alle nostre richieste ha dato vita a una scuola di pensiero secondo cui l’intelligenza artificiale potrebbe, prima o poi, rappresentare un rischio esistenziale per l’umanità, e ha spinto i politici di tutto il mondo a valutare se e come regolamentare i nuovi sviluppi tecnologici.

L’evento inglese è sembrato più uno show che un ritrovo di statisti e di esperti: una riedizione di X-Factor dove si applaudiva più forte chi sparava l’esagerazione più grossa. Tutto sembrava concentrato sullo spettacolo da mostrare, a partire dalla sede dell’evento, Bletchley Park, il luogo dove nacque l’informatica moderna: qui, infatti, furono ideate le macchine che decodificarono il codice Enigma dei nazisti, formando i progetti per i primi computer programmabili. Sentendo il peso di questa storia, Michelle Donelan, ministro della Scienza e della Tecnologia del Regno Unito, ha aperto lo “show” sperando che i delegati riuniti per il vertice avrebbero contribuito a un risultato di simile portata, “alzando i confini di ciò che è effettivamente possibile”, facendosi “architetti dell’era dell’intelligenza artificiale”, con il potere di plasmare il futuro della tecnologia e gestirne i potenziali svantaggi.

Purtroppo, grandi dichiarazioni nascondono spesso piccoli risultati. Diciamo che la Dichiarazione finale sembra un testo appena uscito da ChatGPT da quanto è scontato e banale: l’intelligenza artificiale è ricca di opportunità, ma bisogna stare attenti ai rischi, per questo dobbiamo lavorare tutti insieme. Questa Dichiarazione è come un ritornello di una vecchia canzone che ha ormai stufato: segnala che i leader politici sono consapevoli che l’intelligenza artificiale pone gravi sfide e opportunità e che sono pronti a intraprendere azioni adeguate. Ma resta sempre l’incognita di tradurre il tutto in norme efficaci, capaci di ridistribuire l’indiscusso potere dell’intelligenza artificiale. Nell’inconsistenza dei risultati, l’unico che ne è uscito vincitore è il premier britannico Sunak, che può vantare il successo di aver organizzato il primo summit sulla sicurezza AI, puntando i riflettori sul tema e, nonostante le critiche, invitando la Cina, nonostante le critiche statunitensi. Ma per il futuro dell’intelligenza artificiale niente di nuovo dal fronte occidentale.

Anzi, si stanno portando avanti sempre gli stessi sbagli.

Primo: pensare ai rischi a lungo termine sottovalutando i problemi degli attuali sistemi di intelligenza artificiale. La decisione di concentrare il vertice attorno ai rischi dell’esistenza umana, alla sicurezza informatica e al terrorismo, è pericoloso, poiché distoglie l’attenzione dai rischi molto reali e già esistenti che l’IA sta causando, come la sorveglianza o la disinformazione, che stanno punendo persone appartenenti a gruppi già emarginati. Significa inoltre dimenticarsi di tutta la discussione fatta negli ultimi dieci anni sull’etica, sulla trasparenza, sulla responsabilità degli algoritmi, di ignorare le molte proposte fatte per rendere l’intelligenza artificiale più inclusiva e sostenibile.

Secondo: far contenti tutti. Quando imprese e governi sono d’accordo su tutto, spesso vuol dire che non si è fatto niente. La volontà di essere regolamentati da parte dei grandi attori e fornitori di intelligenza artificiale a livello globale potrebbe essere vista anche come mossa a loro favore: richiedendo l’approvazione del governo prima dei test pubblici e del rilascio dei prodotti, si innalzano barriere molto alte all’ingresso per chiunque sogni di entrare nell’economia dell’intelligenza artificiale perché si favorisce chi già possiede un grande patrimonio di dati e le risorse necessarie per lo sviluppo.  È fondamentale promuovere una comunità open source, come esiste adesso nel settore della sicurezza informatica. Non solo per dare più opportunità di aprire il mercato con nuove soluzioni, ma anche per evitare che sistemi non regolamentati creati da modelli open source possano essere utilizzati per usi illeciti ed essere troppo pericolosi per essere distribuiti liberamente.

Terzo: considerare le istituzioni pubbliche e i governi come arbitri o commentatori. Ma questi ultimi non vincono le partite, assistono solo alla “partita”. Dobbiamo aumentare drasticamente il sostegno pubblico alla ricerca sull’intelligenza artificiale, sia per lo sviluppo che per la sicurezza, per garantire che diventi una tecnologia per il bene comune nei secoli a venire. Inoltre, i governi devono chiedere più trasparenza: finora le uniche persone che hanno testato la sicurezza dei nuovi modelli di intelligenza artificiale sono state le stesse aziende che li hanno sviluppati. È come se gli studenti si correggessero da soli i compiti a casa.

Quarto: non essere ambiziosi. Quello che il vertice non ha fatto è stabilire un percorso di consenso verso la definizione di standard internazionali e approfondire quali meccanismi istituzionali attivare per la collaborazione internazionale. A parte i Paesi che hanno firmato, non è chiaro come allargare il consenso ai molti governi mancanti. I prossimi passi sono altre due conferenze annunciate, in Corea del Sud e in Francia. Un modello che sembra ricalcare le riunioni COP sul clima, che purtroppo abbiamo visto essere sempre più fallimentari. Risultati poco stimolanti per un evento “che ha spostato l’ago della bilancia a favore della comunità”.

E quindi? L’Intelligenza artificiale è una minaccia per la sicurezza nazionale o per la società? È un’arma geopolitica? È un modo di aiutare persone? La risposta è: un po’ di tutto. Fare politiche tecnologiche è come fare una gara di decathlon: non abbiamo il lusso di scegliere un solo sport. Non si può scegliere tra equità, privacy, sicurezza o altro.  Certo potremo iniziare a parlare meno delle similitudini tra AI e la bomba nucleare e approfondire di più l’impatto possibile su educazione, sanità, ambiente. Fare meno conferenze e discutere di più su come rendere meno energivori i processi legati all’utilizzo dell’intelligenza artificiale. Ostentare meno dichiarazioni su come la tecnologia farà perdere posti di lavoro in un futuro prossimo (è qualcosa che sento da almeno 10 anni)  e sviluppare più attenzione agli attuali sfruttamenti nel mondo del lavoro, da chi lavora per allenare modelli di intelligenza artificiale per pochi dollari all’ora, a chi viene discriminato da un algoritmo.

Forse tutto questo richiede qualcosa di più di uno show, un processo dall’alto verso il basso dominato da élite tecnocratiche, ma una seria partecipazione democratica, che aiuti a far capire meglio gli effetti dello sviluppo tecnologico sull’intera società.

Forse ha ragione Elon Musk, che pur avendo partecipato all’evento di Bletchley Park, in un tweet prende in giro i governi, svelando le loro possibili intenzioni: parlare di intelligenza artificiale per dimostrare di averne il potere. Anche quando non ce l’hai. “Dichiariamo che l’IA pone un potenziale rischio catastrofico per l’umanità… e non vediamo l’ora di svilupparlo per primi!”.

Piccoli (troppo) passi avanti sull’IA. Il summit inglese letto da Bani

Di Marco Bani

I leader politici si confermano consapevoli che l’intelligenza artificiale pone gravi sfide e opportunità e ribadiscono di essere pronti a intraprendere azioni adeguate. Ma resta sempre l’incognita di tradurre il tutto in norme efficaci

Dove (e come) il governo ha sbagliato i suoi calcoli. Parla La Malfa

Nessuno mette in dubbio che le due finanziarie targate Fratelli d’Italia siano state guidate dalla massima cautela. Ma a forza di mantenere i patti presi con il proprio elettorato, l’esecutivo ha manomesso parte dei conti e questo avrà un prezzo. I mercati oggi hanno altro a cui pensare, ma non è detto che si scordino dell’Italia. Intervista con l’economista, anima del Partito repubblicano ed ex ministro del Bilancio

Niente di nuovo sul fronte del debito, la vera partita è un'altra. L'analisi di Polillo

Fitch ha apprezzato la prudenza dell’Italia e lo stesso aveva fatto un paio di settimane fa Standard & Poor’s. E a seguire l’agenzia tedesca Scope Rating che aveva eccepito, in modo diverso, sulla natura del debito pubblico italiano. Dunque, più che preoccuparsi di un improbabile default era all’ammontare della spesa per interessi che bisognava guardare. Il commento di Gianfranco Polillo

Servono partiti davvero europei per l’Europa e la democrazia. Scrive De Tomaso

Il Vecchio continente si gioca tutto nelle elezioni di giugno 2024. Per rilanciare il disegno federale, non bisogna più ragionare con la logica e il programma del cortile di casa. Il commento di Giuseppe De Tomaso

Un nuovo chip non salva la vita. La Cina ha i suoi problemi per via delle restrizioni Usa

Le restrizioni tech di Washington sembravano non scalfire Pechino, capace di trovare altrove gli strumenti mancanti e di creare alcuni anche molto potenti. Eppure, alcune mosse del Dragone dimostrerebbero le difficoltà che dovrà affrontare, a cominciare dalla costruzione di una produzione su scala globale

Ecomondo, tutti i numeri (da primato) dell'edizione 2023

Da questa ventesima edizione arriva un segnale forte e chiaro: le tecnologie per la circolarità sono pronte per rigenerare gli ecosistemi, quando sono supportate da politiche orientate alla decarbonizzazione: dalla bioeconomia alla blue economy, dalla valorizzazione dei rifiuti come risorsa al ripristino dei suoli, dalle bioenergie al monitoraggio ambientale. Il racconto di Saturno Illomei da Rimini

Biden-Xi. L'incontro a San Francisco serve a segnare il perimetro della competizione

L’incontro tra Biden e Xi sarà caricato di significati da entrambi le parti, e potrebbe riaprire le comunicazioni militari (in ottica strategica?). Per Fasulo (Ispi), i due Paesi stanno cercando di definire le regole di ingaggio di questa competizione, consapevoli che ormai la competizione c’è. Di essa fa parte la messa in sicurezza della sfera economica, e per questo “ogni Paese cercherà di rendersi il più possibile indipendente e di aumentare il vantaggio tecnologico sull’altro”

Stabilità e prospettive, la traccia del governo Meloni spiegata da Mantovano

Il sottosegretario alla presidenza del Consiglio: “L’arrivo di Giorgia Meloni sulla scena internazionale ha concorso ad un diverso posizionamento dell’Italia nell’Unione Europea”. Ecco come

Un gruppo di lavoro G7 sul cyber-spazio. Sostegno Usa alla proposta italiana

L’idea avanzata dall’Agenzia per la cybersicurezza nazionale ha ricevuto il plauso della Casa Bianca in occasione della missione a Washington del direttore Bruno Frattasi

FS, Fond. Pellegrini, Gucci e Quartieri Spagnoli. I vincitori del premio Kennedy Human Rights

Impegno nel sociale e in contesti difficili. Nel corso del tradizionale gala di beneficienza, il presidente della fondazione dell’associazione Robert F. Kennedy Human Rights Italia, Stefano Lucchini, ha consegnato i premi a quattro realtà che si sono distinte particolarmente meritevoli la propria attività in ambito sociale. Ecco chi sono

×

Iscriviti alla newsletter