Skip to main content

Ecco perché ChatGpt è sotto inchiesta negli Usa

La Federal Trade Commission (Ftc) indaga sui danni che avrebbero causato le informazioni false diffuse dal chatbot

L’intelligenza artificiale di ChatGpt è così reale che adesso dovrà rispondere dei danni che avrebbe causato. La Federal Trade Commission (Ftc), l’agenzia incaricata tra le altre cose di proteggere i consumatori americani, ed è competente nella lotta alle pratiche commerciali anticoncorrenziali, ha deciso di aprire un’indagine contro il sistema di OpenAI. Il sospetto è che potrebbe avere danneggiato le persone pubblicando false informazioni su di loro. È noto a chiunque abbia usato il chatbot, che questo abbia la tendenza ad “allucinare” o quantomeno inventare di sana pianta interi pezzi di biografie di personaggi più o meno famosi.

In una lettera inviata dalla Ftc alla società si annuncia l’apertura delle indagini e si pongono domande dettagliate sulle pratiche di sicurezza dei dati, secondo quanto scrive il Wall Street Journal. Ci sono altre domande che riguardano le pratiche di marketing dell’azienda, le sue tecniche per l’addestramento dei modelli di intelligenza artificiale e la gestione delle informazioni personali degli utenti.

“Descrivete in dettaglio in che modo avete adottato misure per affrontare o mitigare i rischi che i vostri prodotti con modelli linguistici di grandi dimensioni potrebbero generare dichiarazioni false, fuorvianti o denigratorie su individui reali”, si legge in una domanda rivolta all’azienda.

Il documento riferisce un incidente del 2020 in cui l’azienda ha rivelato un bug che consentiva agli utenti di vedere informazioni su altre chat degli utenti e alcune informazioni relative ai pagamenti.

Questa indagine della Ftc “rappresenta una potenziale minaccia legale per l’app, che ha guadagnato ampia popolarità dopo essere stata rilasciata alla fine dello scorso anno per la sua capacità di generare output di testo simili a quelli umani in risposta ai prompt”, sottolinea il giornale. E si aggiunge a quelle delle authority europee che vogliono capire come vengono usati (e abusati) i dati che hanno costruito i large language models alla base dell’Intelligenza artificiale generativa.



×

Iscriviti alla newsletter