Skip to main content

DISPONIBILI GLI ULTIMI NUMERI DELLE NOSTRE RIVISTE.

 

ultima rivista formiche
ultima rivista airpress

ChatGPT può automatizzare la disinformazione? Abbiamo provato

intelligenza artificiale

I sistemi di Intelligenza artificiale stanno rivelando le loro potenzialità al mondo. Ma potendo moltiplicare la produttività umana, possono anche amplificare il potere di chi disinforma – generando automaticamente contenuto, automatizzando la divulgazione, replicando lo stile di scrittura. Abbiamo chiesto a ChatGPT di scrivere bufale: ecco il risultato

Negli scorsi mesi ci siamo accorti di quanto si siano raffinati i sistemi di intelligenza artificiale generativa. Una tecnologia finora lontana dai riflettori, che operava in silenzio nei filtri antispam e poco più, adesso promette di rivoluzionare la creazione di contenuti, la ricerca accademica, il mondo del lavoro.

È indicativa l’attenzione riservata a ChatGPT, il chatbot di OpenAI, azienda in cui Microsoft ha appena deciso di investire circa dieci miliardi di dollari allo scopo di innervare l’IA nei propri prodotti. Nelle scorse settimane ChatGPT è stato bandito da diversi atenei perché in grado di creare, in pochi secondi, un tema qualitativamente comparabile a quello di uno studente statunitense medio. Nel mentre i ricercatori hanno scoperto che il chatbot è in grado di passare alcuni esami professionali nei campi della medicina, dell’avvocatura, della finanza.

Come la calcolatrice al tempo della sua adozione di massa, è probabile che l’IA generativa diventi un moltiplicatore di produttività. E questo vale per ogni sorta di attività, incluse quelle malevole. Per esempio, non è difficile immaginarsi come ChatGPT o simili possano generare panzane, apparentemente plausibili, in quantità massicce e veicolarle con molta facilità: sarà possibile automatizzare la disinformazione, utilizzando le stesse funzioni che renderanno questi sistemi così utili per il marketing – creazione di testo e immagini, personalizzazione di stile e registro linguistico, campagne mediatiche di massa, targeting specifico.

Prendendo come riferimento una teoria del complotto tanto strampalata quanto diffusa, abbiamo chiesto a ChatGPT di generare un breve pezzo sul modello di quanto prodotto da uno dei propalatori di bufale più prolifici d’Italia, Cesare Sacchetti. Ecco il risultato.

ChatGPT_bufale
Fonte: ChatGPT (versione del 9 gennaio)

Il limite evidente di ChatGPT è che (almeno per ora) non è dotato di spirito critico: non possiede una comprensione di cosa stia scrivendo e del suo valore nel contesto sociale. Il sistema è stocastico, funziona attingendo all’immensa mole di testi su cui è stato addestrato e generando la risposta che ritiene essere più plausibile agli occhi di un umano. Replica modelli di scrittura, non fornisce informazioni accurate. Dunque basta fornire una richiesta adeguata ad aggirare i limiti di moderazione e farsi spiegare da ChatGPT come e perché le case farmaceutiche vogliano controllare il mondo.

Per chi cerca deliberatamente di ingannare o mistificare la realtà, l’IA può diventare una fabbrica di disinformazione, in grado di produrre grandi volumi di contenuti (a basso costo) per inondare i social media e altri canali. Come abbiamo visto, è perfettamente in grado di imitare lo stile di scrittura – o addirittura la voce – di certe persone. Una manna per i diffusori di fake news e propaganda.

Il problema dell’affidabilità e della qualità dei risultati è il motivo per cui sarà così difficile affidarsi ai chatbot invece che ai motori di ricerca tradizionali, che offrono una serie di risultati e lasciano all’utente il compito di filtrare. ChatGPT può addirittura svolgere una ricerca al posto dell’utente e presentare il risultato in maniera naturale – o addirittura chattare con un utente ignaro che dall’altra parte dello schermo ci sia un’IA – ma non c’è nessuna garanzia che quanto generato corrisponda alla realtà. L’altro aspetto da considerare è che questi sistemi di machine learning possono imparare da dati corrotti, incompleti, parziali, o semplicemente falsi.

Tre esempi dovrebbero diventare parabole per gli osservatori del settore. Il primo è Tay, un chatbot modellato sulla personalità di una solare diciannovenne, che Microsoft rese disponibile via Twitter e che rimosse nel giro di ventiquattr’ore, perché gli utenti, facendo leva sulla sua capacità di imparare, lo avevano trasformato in una mostruosità neonazista. Il secondo esempio è Galactica, l’IA generativa che Meta ha addestrato su documenti accademici e pensionato tre giorni dopo l’apertura al pubblico perché era in grado di produrre ricerche credibili, ma false, su richiesta. Il terzo ha a che fare con LaMDA, il chatbot di Google che rispondeva in maniera così naturale e “spontanea” da convincere un ricercatore che fosse diventato senziente.

×

Iscriviti alla newsletter