Mentre cresce l’attenzione delle autorità su ChatGPT, il presidente ha indicato i rischi sociali delle applicazioni di intelligenza artificiale e rimarcato che le aziende devono garantire la sicurezza dei loro prodotti. Biden ha invitato il Congresso a passare leggi sulla protezione dei dati. I legislatori Usa rimangono divisi, ma guardano con interesse alle mosse Ue
Sono giorni in cui ci si interroga sull’impatto sociale dei sistemi di intelligenza artificiale, anche al di là dell’Atlantico. Martedì pomeriggio il presidente Joe Biden ha incontrato il Consiglio dei consulenti per la scienza e la tecnologia “per discutere dei rischi e delle opportunità che l’IA comporta”. La sua linea: questa tecnologia potrebbe aiutare ad affrontare grandi sfide, come le malattie e i cambiamenti climatici, ma prima è necessario limitare i potenziali rischi per la società, la sicurezza nazionale e l’economia.
“Le aziende tecnologiche hanno la responsabilità, a mio avviso, di assicurarsi che i loro prodotti siano sicuri prima di renderli pubblici”, ha detto il presidente statunitense all’inizio della riunione con i consulenti della Casa Bianca. Alla domanda se l’IA fosse pericolosa, ha risposto: “È tutto da vedere. Può essere”. I social media hanno già illustrato i danni che le tecnologie possono fare senza le tutele, ha detto. “Vediamo l’impatto sulla salute mentale e sull’immagine di sé, sui sentimenti e sulla disperazione, soprattutto tra i giovani”.
Le parole del presidente statunitense fanno seguito a una serie di preoccupazioni che crescono di pari passo all’adozione fulminea dei chatbot come ChatGPT, offerto da OpenAI. Settimana scorsa, tramite una lettera, Elon Musk e un migliaio di esperti di IA hanno paventato “gravi rischi per la società e l’umanità” e chiesto alle autorità di sospendere lo sviluppo di questa tecnologia per almeno sei mesi, in modo da mettere a punto dei sistemi di controllo. Anche il senatore democratico Chris Murphy ha chiesto una pausa, mentre il Center for Artificial Intelligence and Digital Policy ha presentato un reclamo alla Federal Trade Commission per impedire a OpenAI di rilasciare le prossime iterazioni del chatbot.
Sul lato più pratico si è già verificato un importante data breach di ChatGPT, che tra le altre cose ha portato i dipendenti di Samsung a divulgare segreti aziendali e attirato l’attenzione del Garante della privacy italiano – che venerdì scorso ha sospeso il servizio in Italia. Come ha evidenziato su queste colonne il professor Vincenzo Zeno-Zencovich, la possibilità che questo blocco si estenda ad altri Paesi europei è molto reale: Francia, Irlanda e Germania stanno già studiando il caso italiano. Intanto il Canada ha aperto un’indagine su OpenAI dopo una denuncia riguardo la raccolta, l’utilizzo e la divulgazione illegittima di dati personali.
È proprio sulla responsabilità delle aziende che si articola la strategia dell’amministrazione Biden. La Casa Bianca, ricorda il tweet presidenziale, “ha proposto una Carta dei diritti dell’IA per garantire che importanti protezioni per il popolo americano siano integrate nei sistemi di IA fin dall’inizio”. I cinque punti fondamentali: sistemi sicuri ed efficaci, protezioni contro la discriminazione algoritmica, privacy dei dati, misure di trasparenza (il diritto di farsi spiegare come un’IA abbia raggiunto un certo risultato) e misure di controllo umano.
Il presidente ha ribadito che il Congresso dovrebbe approvare una legislazione bipartisan sulla privacy che ponga dei limiti alla raccolta di dati personali da parte delle aziende tecnologiche, per vietare la pubblicità mirata ai minori e prioritizzare la salute e la sicurezza nello sviluppo dei prodotti. Resta da vedere se leggi del genere riusciranno a superare uno dei Congressi più polarizzati della storia americana. Sono già stati fatti diversi tentativi nel corso degli ultimi anni, senza successo: diverse proposte di legge per limitare le applicazioni Ia, come il riconoscimento facciale, sono state bocciate dai parlamentari.
Va anche considerato che la moderazione nel legiferare è uno degli ingredienti della ricetta vincente Usa per lo sviluppo tecnologico. E tuttavia Washington guarda sempre più all’Unione europea, dove le leggi sulla protezione dei dati (come il Gdpr) sono già consolidate e l’AI Act è nelle fasi finali di formulazione dopo due anni di lavori. L’IA è anche il perno di uno dei tavoli di lavoro del Consiglio commercio e tecnologia (Ttc) Ue-Usa, dove le due potenze lavorano per allineare il loro approccio alle nuove tecnologie. E il testo finale della normativa europea, che si basa sulla classificazione del rischio dei sistemi IA potrebbe essere d’ispirazione per una nuova spinta regolatoria anche negli States.
Immagine: profilo Twitter della Casa Bianca