Skip to main content

Scarsa trasparenza sui dati degli utenti. Perché il Garante ha bloccato ChatGpt

Assenza di filtri per la tutela dei minori di tredici anni e scarsa trasparenza sull’utilizzo e la conservazione dei dati privati degli utenti. Lo stop, non assoluto, riporta in auge la domanda: meglio innovare o meglio regolare? Il commento di Maurizio Mensi (Sna)

Il Garante per la privacy ha disposto la limitazione provvisoria del trattamento dei dati degli utenti italiani nei confronti di OpenAi, la società statunitense che ha sviluppato e gestisce la piattaforma ChatGpt, la più nota tra i software di intelligenza artificiale relazionale in grado di simulare conversazioni umane.

Nel provvedimento reso noto dall’Autorità si legge che il Garante rileva la mancanza di una informativa agli utenti che definisca in maniera sufficientemente chiara come vengono utilizzati i dati raccolti. Soprattutto, mancherebbe “una base giuridica che giustifichi la raccolta e la conservazione di dati personali”. Come peraltro testimoniato dalle verifiche effettuate, le informazioni fornite da ChatGpt non sempre corrispondono al dato reale, “determinando quindi un trattamento di dati personali inesatto”.

Il Garante lamenta anche insufficiente trasparenza per quanto riguarda i filtri e i meccanismi adottati da ChatGpt per impedire ai minori di 13 anni di utilizzare il servizio, esponendoli a risposte “assolutamente inidonee rispetto al loro grado di sviluppo e autoconsapevolezza”.

Lo scorso 20 marzo la piattaforma aveva subito un data breach riguardante le conversazioni degli utenti e le informazioni relative ai pagamenti degli abbonati al servizio premium, attirando l’attenzione del regolatore.  Il provvedimento di oggi ha natura temporanea di blocco del trattamento, ma non implica necessariamente un divieto definitivo. Ora la società dovrà adeguare i propri standard o rischierà sanzioni fino a 20 milioni di euro, o il 4% del fatturato annuo.

Come già raccontato anche da Formiche.net, l’episodio riporta in auge il classico bivio: meglio lasciare mano libera all’innovazione con il rischio di esporsi a futuri fenomeni dannosi, o regolare la tecnologia correndo il rischio di limitare l’innovazione?

“si tratta peraltro di un  provvedimento d’urgenza, il primo del genere adottato in Europa, a cui seguirà quello finale all’esito della rituale istruttoria”.

“Un provvedimento ineccepibile, data la completa mancanza di trasparenza circa i dati raccolti e trattati da OpenAI, i suoi algoritmi ed il loro funzionamento”, spiega a Formiche.net Maurizio Mensi, docente presso la Scuola Nazionale dell’Amministrazione. E prosegue: “Si tratta peraltro di un provvedimento d’urgenza, il primo adottato in Europa nei confronti di ChatGPT, a cui seguirà quello finale all’esito della rituale istruttoria. Sarà a questo punto interessante verificare se e come la società, che ha sede al di fuori dell’UE, darà ottemperanza alla misura disposta nei suoi confronti. Significativo che nella decisione si faccia riferimento alla necessità di tutelare i minori, soggetti deboli e meritevoli di particolare tutela, uno degli aspetti più delicati e problematici della controversa applicazione. È di qualche giorno fa un caso di suicidio in Belgio indotto dalla manipolazione emotiva operata dall’IA, che ha suscitato inquietanti interrogativi sulla capacità di ChatGPT di incidere sull’autonomia decisionale soprattutto delle persone più vulnerabili, sole o depresse”.

In conclusione il professore lancia un monito sulle conseguenze più estreme dell’innovazione tecnologica senza regole. “Emerge soprattutto il timore che si sia ormai aperta la strada verso gli abissi finora inesplorati dell’ingegneria genetica e della clonazione umana, come paventa la lettera pubblicata oggi dai ricercatori dell’Università di Lovanio”.


×

Iscriviti alla newsletter