ChatGpt è la dimostrazione della perdurante supremazia del modello Usa rispetto a quello cinese, nonostante le ingenti risorse finanziarie dispiegate dalla Cina e dalla grande quantità di dati personali raccolti senza il vincolo delle regole a protezione della privacy. Ecco perché nell’analisi di Maurizio Mensi pubblicata sul numero di marzo della rivista Formiche
Di recente Sam Altman, amministratore delegato della start-up californiana OpenAI, creatore di ChatGpt, ha ammesso che non siamo lontani da un’intelligenza artificiale “potenzialmente spaventosa”.
Acronimo di “trasformatore generativo pre-addestrato” (Generative pre-trained transformer), ChatGpt nasce nel dicembre 2022 come evoluzione di Gpt-3, modello linguistico che crea testo attingendo a miliardi di dati e imparando dalla rete come parole e frasi si relazionano tra loro.
Il suo successo (oltre 10 milioni di utenti in poche settimane) deriva dal fatto che interagisce con l’utente tramite un linguaggio naturale basato su reti neurali. Non è solo in grado di rispondere alle domande di un utente, ma può adattare le sue risposte per tenere conto del suo punto di vista e della sua personalità.
Il problema è che fornisce risultati formalmente corretti ma talora contraddittori, con citazioni inventate e informazioni errate. La stessa OpenAI, in un post del 6 febbraio, ha dovuto riconoscere che qualcosa non va se un numero crescente di utenti considera i risultati discutibili e talora offensivi.
Nonostante per ora non rappresenti la annunciata rivoluzione mediante la simulazione del ragionamento umano, si sta rivelando strumento allettante per aziende, organizzazioni e individui. È diventato l’oggetto del desiderio di big tech e motori di ricerca.
Qualche settimana fa Google ha presentato un nuovo chatbot guidato dall’IA generativa chiamato Bard, mentre Microsoft ha annunciato l’intenzione di incorporare ChatGpt nel suo motore di ricerca Bing e forse anche Windows stesso, per interagire con gli utenti.
Di fatto ChatGpt è la dimostrazione della perdurante supremazia del modello Usa rispetto a quello cinese, nonostante le ingenti risorse finanziarie dispiegate dalla Cina e dalla grande quantità di dati personali raccolti senza il vincolo delle regole a protezione della privacy.
Innovazione e ricerca sono infatti stimolate da libertà, iniziativa imprenditoriale e pensiero critico, mentre un sistema condizionato da censura, dirigismo e ferreo controllo dello Stato-partito sull’economia frena lo sviluppo e pregiudica la competitività, come rileva il New York Times in un articolo del 20 febbraio (Li Yuan, “USA leapfrogs China in artificial Intelligence”).
È vero tuttavia che i chatbot basati sull’IA presentano il rischio di diffondere disinformazione, manipolare utenti per sottrarre loro informazioni personali, promuovere notizie false e propaganda. Di qui la necessità che siano usati in modo responsabile e sottoposti ad alcune regole.
ChatGpt è stato vietato nelle scuole di New York e crescono i rischi derivanti dai pregiudizi e dalla diffamazione che i nuovi chatbot producono. Secondo Noam Chomsky, in ambito scolastico ChatGpt è assimilabile ad un “plagio high-tech”.
In altri termini, il passo successivo, rispetto al “copia&incolla” da Wikipedia e altre fonti online, già di uso comune presso gli studenti di tutto il mondo sin dalle medie (e che ci costringe, a livello educativo, a ripensare l’attualità di strumenti come le ricerche, le composizioni, risalenti all’età analogica).
Anche se in generale non sono strumenti di per sé buoni o cattivi, dobbiamo assicurarci che per il loro funzionamento non violino diritti di libertà, rileva Nathan E. Sanders, del Berkman Klein Center dell’Università di Harvard.
Ci si chiede poi chi risponde se un motore di ricerca (Google o Microsoft) non si limita più a raccogliere le informazioni di altri (pur citandoli come fonte) ma le rielabora per fornire risposte articolate.
Mediante l’offerta di simili algoritmi, i motori di ricerca (ma, più in generale, chi li offre al pubblico) non beneficiano più del safe harbour previsto dalle regole europee in materia di servizi digitali poiché svolgono una vera e propria attività editoriale, che può comportare l’elaborazione (e, quindi, un più penetrante trattamento) di dati personali, con tutte le conseguenze del caso (inclusa la responsabilità per eventuali diffamazioni online).
A ciò si aggiunga che, a tutela degli utilizzatori, simili funzionalità sarebbero soggette ai limiti e obblighi in materia di trasparenza previsti dalla bozza di regolamento Ue sull’IA, presentata ad aprile 2021 e già in una fase avanzata del processo legislativo.
In altri termini, gli utenti dovrebbero essere adeguatamente informati della circostanza che quanto ottengono è il risultato di un applicativo di IA che, in quanto tale, non è necessariamente aderente alla realtà, ma elaborato da un algoritmo offerto da un determinato soggetto.
Ecco perché le aziende che utilizzano chatbot IA come ChatGpt dovrebbero essere, in primo luogo, tenute a condurre valutazioni del rischio e adottare adeguate misure di sicurezza. Del resto, la proposta europea di regolazione dell’IA si basa proprio sul grado di rischio per i diritti fondamentali dei cittadini Ue.
Vi è poi la questione della proprietà di ciò che ChatGpt produce. Interessante rilevare che i sistemi di intelligenza artificiale potrebbero essere utilizzati per contrastare lo stesso sistema normativo legislativo che si sta ipotizzando per controllarli.
Sanders ha infatti spiegato sul New York Times che ChatGpt sta sostituendo gli esseri umani nei processi democratici non tanto attraverso il voto o la predisposizione di testi normativi, ma attraverso il lobbismo, vale a dire gli argomenti per sostenere una determinata tesi.
Per ora negli Stati Uniti non vi sono regole specifiche. Il National Institute of Standards and Technology, che fa parte del Dipartimento del Commercio, ha proposto un framework IA per fornire alle aziende una guida per la progettazione e utilizzo dei chatbox.
Il 4 ottobre 2022 è stata presentata la Carta dei diritti sull’IA (Blueprint for an AI Bill of Rights – AIBoR), mentre nell’Unione europea la Carta dei diritti fondamentali, ma soprattutto la proposta di regolamento in tema di IA e il Digital Services Act introducono una serie di previsioni dettagliate.
I citati quadri normativi hanno in comune lo stabilire il diritto degli individui di essere protetti dai sistemi di IA ed essere informati circa le decisioni algoritmiche che li riguardano.
A quelle sulle privacy si aggiungono anche le regole per garantire libertà di espressione e informazione insieme al diritto alla non discriminazione (così Eve Gaumond e Catherine Régis, in Assessing Impacts of AI on Human Rights: It’s Not Solely About Privacy and Non discrimination, Lawfare, 27 gennaio 2023).
Insomma, l’ascesa di robot indistinguibili dalle persone ci colloca in un territorio inesplorato, come indica Jonathan Zittrain (“Ifs, ands and bots”, in The Security Times, febbraio 2023) e la soluzione risiede in una miscela fatta di intervento pubblico, regole deontologiche delle imprese private e comportamenti dei singoli.
In primis, occorre peraltro stabilire modalità condivise per la diffusione dei testi generati dall’IA chiedendo al riguardo la collaborazione delle principali piattaforme digitali, così come fanno i supermercati e le farmacie che mettono in vendita solo articoli con etichette che indicano la loro composizione e provenienza.
A gennaio i rappresentanti delle tre religioni (cristiana, ebraica, islamica) si sono incontrati con il Papa in Vaticano, presso la Pontificia Accademia delle Scienze, per discutere del futuro dell’intelligenza artificiale e delle implicazioni della tecnologia, come riporta il 16 febbraio il Financial Times Europe.
Il tema è quello del rispetto dei limiti etici e morali. Subito dopo il lancio di ChatGpt alla fine del 2022 erano infatti apparse evidenti le insidie di un sistema che imita la comunicazione umana, può diffondere falsità e disinformazione, ingigantire i pregiudizi della società nei risultati che produce e, se si aggirano le sue protezioni, può generare contenuti illeciti.
Di qui il patto comune con le aziende tecnologiche, risultato dell’incontro, noto come Rome Call, basato su sei principi etici che tutti i progettisti di IA dovrebbero rispettare: rendere i sistemi di IA spiegabili, inclusivi, imparziali, riproducibili e richiedere che un essere umano si assuma sempre la responsabilità di una decisione.
Questo approccio valoriale è, del resto, anche il cuore della citata proposta legislativa europea (che, come rilevato, molto probabilmente, sarà approvata nei prossimi mesi). Insomma, le persone devono rimanere sempre al centro della sua progettazione.
Conviene pertanto non indulgere al tecno-ottimismo globale e non fidarsi troppo delle risposte di ChatGpt (senza però rinunciare a farne uso), come suggerisce Guido Vetere (CRS, 22 dicembre 2022). Il segreto sta nell’insegnare ai bambini, così come agli adulti, il pensiero critico e a ragionare autonomamente, per preservare capacità di discernimento e di valutazione.
Ps. Fino a quando non sarà approvato il regolamento Ue, fareste bene a chiedervi, d’ora in poi, chi sia il vero autore dell’articolo che avete letto…