Skip to main content

Persino il “papà” di ChatGpt diventa allarmista sull’IA. Ma le regole…

Sam Altman - video Twitter

Il ceo di OpenAI Sam Altman ha messo in guardia sui pericoli che si corrono con la nascita di nuovi strumenti tech. C’è bisogno di una regolamentazione che coinvolga quanti più Paesi possibili, come con le armi nucleari. La Casa Bianca si sta muovendo per mitigare la preoccupazione, ma ancora manca un accordo politico

Di fronte alla commissione Giustizia del Senato, il capo di OpenAI Sam Altman non ha utilizzato giri di parole. La sua azienda “è stata fondata nella convinzione che l’Intelligenza Artificiale ha il potenziale per migliorare quasi ogni aspetto delle nostre vite, ma crea anche rischi seri sui quali dobbiamo lavorare per poterli controllare”. Ad essere chiamata in causa è soprattutto la politica, che dovrà regolare questo strumento allo stesso modo di come ha fatto con gli armamenti nucleari. “C’è la possibilità che gli Stati Uniti possano fissare una serie di standard a cui altri Paesi possono uniformarsi, ma sembra un’idea impraticabile”, ha aggiunto nella sua prima audizione al Congresso. Per questo, si dovrebbe piuttosto strutturare un’agenzia dell’IA, che sia in grado di rilasciare licenze e norme di sicurezza da cui dovranno passare i nuovi strumenti tech.

L’idea lanciata dal Ceo dell’azienda più in voga del momento, considerato un guru nell’ambiente, stuzzica non poco i legislatori americani, contrariamente a quanto si potesse immaginare. “Non capisco come si possa dire che non abbiamo bisogno di un’agenzia che si occupi della tecnologia più trasformativa forse mai esistita”, ha affermato la repubblicana Lindsey Graham, che ha paragonato l’IA a un reattore nucleare: così come quest’ultimo necessita di garanzie, anche la prima dovrebbe offrirne. In realtà, figure come Lina Khan (a capo della Federal Trade Commission) sostengono che il governo Usa ha già gli strumenti per affrontare i rischi di questo settore, e che creare un’ennesima authority può solo diluire la capacità di incidere e frammentare un sistema già diviso tra varie agenzie federali, le leggi approvate da singoli stati, e la giurisdizione ordinaria (che negli Usa può essere sia federale che statale).

La bolla è ormai scoppiata. Sempre più spesso, le voci di spicco di questo mondo avvertono sui potenziali pericoli che l’IA potrebbe avere nella nostra quotidianità. Prima erano stati Elon Musk e altri mille esperti, che avevano scritto le loro preoccupazioni in una lettera; poi era stato il turno del padre dell’IA, Geoffrey Hinton, che ha deciso di andare in pensione perché spaventato dalla sua stessa creatura; infine il discorso di Altman, che ha esposto al Congresso paure tangibili.

Come quelle sull’impatto che la tecnologia può avere sulle elezioni, per cui si dichiara “nervoso” al sol pensiero. Basti vedere le foto fake ritoccate dall’IA, che ritraggono i politici statunitensi in situazioni estreme – come un Donald Trump con le manette portato via dagli agenti di polizia – che hanno però generato confusione, con molti cittadini che le hanno prese per vere.

Non tutto il male viene tuttavia per nuocere. ChatGpt è finito al centro di ogni dibattito perché si è compreso il suo straordinario apporto, talmente grande che spaventa. Ciononostante, come ha sottolineato Altman, l’impatto che questo avrà sul mondo del lavoro è ancora incerto. “È molto difficile fare una previsione, ma penso che ci sarà più occupazione e che il lavoro di oggi verrà migliorato”. Tutto o quasi dipenderà dal governo e dalla sua collaborazione con le aziende. “Dobbiamo pensare che il ChatGpt è uno strumento, non una creatura, e quindi può essere controllato”, ha aggiunto.

Purché questo avvenga in modo responsabile e democratico. In questo senso, Washington sembrerebbe essere al lavoro, sebbene non si tratti di un tema di semplice gestione. Ma il tempo stringe, i nuovi strumenti di IA vengono partoriti quotidianamente e, insieme a loro, aumenta lo spavento degli americani. Da un ultimo sondaggio condotto da Reuters e Ipsos, quelli preoccupati che possano nuocere alla civiltà sono arrivati al 61%.

Qualcosa, seppur in ritardo, il governo degli Stati Uniti la sta quindi facendo. A ottobre è stata pubblicata la bozza della Carta dei diritti dell’IA, che dovrebbe comportare sistemi sicuri ed efficaci, la protezione della discriminazione algoritmica, la tutela dei dati personali, spiegazioni che avvertono l’utente su cosa sta decidendo la macchina che stanno utilizzando e la messa a disposizione di una persona fisica laddove l’IA non riesca ad arrivare.

I problemi legati a questo documento sono però due: non è vincolante, quindi non ha valore di legge, e non ha effetti sulle grandi aziende, sebbene abbiano contribuito a redigerla. Come dichiarato a Wired da Alondra Nelson, vice responsabile dell’Ufficio per le politiche scientifiche e tecnologiche (Ostp), “sappiamo anche noi che i principi non sono sufficienti. Ma questo è solo un anticipo. È solo l’inizio, il punto di partenza”. Sulla seconda lacuna, la Casa Bianca si sta infatti muovendo per cercare di colmarla provando a mettere le briglie alle Big Tech, ma le difficoltà che ha di fronte sono piuttosto grandi.

Lo scorso aprile, è stato inoltre presentato al Senato un disegno di legge per la creazione di una task force, che possa individuare il modo migliore in mano alle autorità per ridurre le minacce agli utenti. Come ha spiegato Altman, la paura dipende da “dove andrà la tecnologia” e se questa “verrà utilizzata in modo sbagliato”. Altrimenti, è una risorsa da sfruttare.



×

Iscriviti alla newsletter