Skip to main content

Un freno di emergenza sull’Intelligenza artificiale. La lettera di Musk (e mille altri)

Il documento porta il nome del capo di SpaceX e Tesla, ma anche di altri mille esperti del settore. Un’avvertenza particolare, perché arriva dai diretti interessati, che mettono in guardia sui pericoli delle novità e chiedono un semestre bianco in cui ragionare su come governarli. La notizia arriva però nel giorno in cui il governo del Regno Unito pubblica il suo white paper sull’IA, che va nella direzione opposta

“Negli ultimi mesi c’è stata una corsa fuori controllo dei laboratori per l’Intelligenza Artificiale a sviluppare e dispiegare potenti menti digitali che nessuno, neanche i creatori, possono capire, prevedere e controllare. Questi sistemi possono comportare gravi rischi per la società e l’umanità e il loro sviluppo dovrebbe essere sospeso per almeno sei mesi”, firmato Elon Musk e altri mille esperti del settore tech. È questa la preoccupazione dei maggiori protagonisti dell’IA, quelli che la studiano ogni giorno e che la sfruttano per lanciare nuovi strumenti, scritta nero su bianco in una lettera resa pubblica dal Future of Life Institute, un’organizzazione senza scopo di lucro. Una lettera per chiedere un qualcosa che, in prima istanza, potrebbe essere contro i loro interessi: un semestre bianco nello sviluppo di sistemi di IA, affinché si possa avere il tempo per studiare regole di controllo più forti.

Oltre al capo di SpaceX e Tesla, anche tanti altri dirigenti d’azienda, tra cui il co-fondatore di Apple, Steve Wozniak, quello della London-based Stability AI, Emad Mostaque, gli scienziati informatici Yoshua Bengio – fondatore di OpenAI, poi nel 2018 rinnegata in toto – e Stuart Russell, insieme a una serie di ingegneri e tecnici di Amazon, DeepMind, Google, Meta e Microsoft.

Le novità si portano dietro sempre pro e contro, un’affermazione che è ancor più valida con l’Intelligenza Artificiale. L’esempio più concreto, e ultimo in ordine di tempo, è quello rappresentato da Chat GPT-4, l’ultima versione del chatbot di OpenAI in cui Microsoft ha investito diversi miliardi di dollari – oltre che lo stesso Musk, avendo navigato per anni nel consiglio d’amministrazione dell’azienda. Proprio il nuovo lancio OpenAI ha sollecitato la pubblicazione di questo documento, per mettere in guardia dei pericoli che si stanno correndo.

“I potenti sistemi di Intelligenza Artificiale dovrebbero essere sviluppati solo quando saremo sicuri che i loro effetti saranno positivi e i loro rischi saranno gestibili”, sottoscrivono gli esperti. “Invitiamo”, dunque, “tutti i laboratori di IA a sospendere immediatamente per almeno sei mesi lo sviluppo di sistemi più potenti di GPT-4”. Un periodo di stop, dunque, da sfruttare per sviluppare protocolli di sicurezza, sistemi di governance dell’AI e riorganizzare la ricerca per assicurare che tali sistemi diventino “più affidabili e leali”. Qualora non si dovesse attuare immediatamente questa pausa, che “dovrebbe essere pubblica, verificabile e includere tutti, i governi dovrebbero intervenire e istituire una moratoria”.

Il problema è dunque molto semplice: la corsa alla novità tecnologica ha talmente tanti iscritti che si fa fatica a starle dietro. O meglio, non si ha il tempo di studiare questi strumenti, per intercettarne le criticità e risolverne. D’altronde, è del nostro futuro che si parla e la preoccupazione non potrebbe essere meno grande. In gioco ci sono posti di lavoro, tanto per fare un esempio concreto, ma anche la rivoluzione della quotidianità, che Chat GPT sta già apportando. Quei sistemi che sono basati su un’intelligenza “competitiva” possono infatti “comportare gravi rischi per la società e l’umanità”. La questione assume grande rilevanza anche per il fatto che, negli ultimi anni, la caccia alle streghe contro le Big Tech si è fatta più serrata. Non soltanto con i social network, ma anche con le aziende private che influiscono, inevitabilmente, nella comunità in cui vanno a operare.

Proprio mercoledì però il Regno Unito ha pubblicato il suo white paper sull’IA basato su cinque punti cardine: sicurezza, trasparenza, equità, responsabilità e possibilità per le persone di poter contestare i risultati dannosi. Con una specificazione: “Il governo eviterà una legislazione pesante che potrebbe soffocare l’innovazione e adotterà un approccio adattabile alla regolamentazione”. Il che vuol dire che nessun nuovo organo di controllo verrà istituito, ma basteranno quelli già esistenti. Già sul piede di guerra i laburisti, delusi e amareggiati. “Questo regolamento richiederà mesi, se non anni, per entrare in vigore”, ha affermato Lucy Powell, segretaria di Stato ombra per il digitale, cultura, media e sport.

“Nel frattempo, Chat GPT, Bard di Google e molti altri stanno rendendo l’IA una parte regolare della nostra vita quotidiana. Il governo”, ha sentenziato, rischia di rafforzare le lacune nel nostro sistema normativo esistente e di rendere il sistema estremamente complesso da navigare per le imprese e i cittadini, mentre sta indebolendo quelle basi attraverso la loro imminente fattura sui dati”. Per Musk e gli altri firmatari, pertanto, la speranza è che il loro grido di allarme venga ascoltato almeno dall’Unione europea, pronta a pubblicare il suo regolamento sull’Intelligenza Artificiale.


×

Iscriviti alla newsletter