OpenAI ha bloccato diversi account che utilizzavano il chatbot per sviluppare uno strumento di sorveglianza basato su IA, di origine cinese e alimentato dai modelli Llama di Meta. Gli account coinvolti avrebbero generato descrizioni dettagliate e analizzato documenti per monitorare le proteste anticinesi in Occidente. OpenAI ha anche scoperto altre operazioni illecite sfruttando ChatGPT, tra cui attività legate alla Corea del Nord
OpenAI ha annunciato venerdì di aver bloccato una serie di account che utilizzavano il chatbot ChatGPT per sviluppare quello che si sospetta essere uno strumento di sorveglianza basato sull’intelligenza artificiale. Esso avrebbe origine in Cina e sarebbe alimentato da uno dei modelli Llama di Meta. Gli account coinvolti avrebbero impiegato i modelli di OpenAI per generare descrizioni dettagliate e analizzare documenti, al fine di sviluppare un sistema capace di raccogliere dati in tempo reale sulle proteste anticinesi in Occidente e trasmettere le informazioni alle autorità di Pechino. Gli esperti di OpenAI, autori del rapporto, hanno denominato l’operazione Peer Review, in riferimento al comportamento della rete nell’ideare e valutare strumenti di sorveglianza. Il software in questione sarebbe stato progettato per raccogliere e analizzare post e commenti da piattaforme come X, Facebook, YouTube, Instagram, Telegram e Reddit.
Il monitoraggio tramite IA
In un caso segnalato dall’azienda, gli attori coinvolti hanno usato ChatGPT per correggere e modificare il codice sorgente del software di monitoraggio, noto come Qianyue Overseas Public Opinion AI Assistant. Oltre a sfruttare i modelli di OpenAI per ottenere informazioni pubblicamente disponibili su think tank statunitensi, funzionari governativi e politici di paesi come Australia, Cambogia e Stati Uniti, il gruppo ha anche utilizzato ChatGPT per leggere, tradurre e analizzare screenshot di documenti in inglese. Alcune immagini analizzate raffiguravano annunci di proteste per i diritti degli uiguri in varie città occidentali e sarebbero state prelevate dai social media. Tuttavia, non è chiaro se tali immagini fossero autentiche.
Le altre attività illecite
Oltre a questo caso, OpenAI ha dichiarato di aver interrotto diverse altre operazioni che sfruttavano ChatGPT per attività illecite come: una rete legata alla Corea del Nord impegnata in un sistema di false assunzioni IT; una rete probabilmente di origine cinese dedita alla creazione di contenuti sui social media in inglese e di articoli in spagnolo critici nei confronti degli Stati Uniti (parte delle attività è riconducibile al gruppo noto come Spamouflage); un’operazione che coinvolgeva account impegnati nella traduzione e generazione di commenti in giapponese, cinese e inglese per truffe sentimentali e di investimento, presumibilmente gestite da soggetti con base in Cambogia; una rete rete di cinque account che diffondeva contenuti filo-palestinesi, filo Hamas e filoiraniani, oltre a messaggi anti Israele e anti Stati Uniti; una rete rete di attori nordcoreani coinvolti nella raccolta di informazioni su strumenti di attacco informatico e argomenti legati alle criptovalute; un gruppo che produceva articoli in inglese per un sito web chiamato Empowering Ghana e commenti sui social media mirati alle elezioni presidenziali in Ghana; una rete, probabilmente con base in Cambogia, che traduceva commenti tra urdu e inglese nell’ambito di una truffa che prometteva guadagni attraverso compiti semplici (come mettere like a video o scrivere recensioni).
Gli altri report
Questa operazione di OpenAI evidenzia come gli strumenti di intelligenza artificiale vengano sempre più utilizzati da attori malevoli per facilitare campagne di disinformazione e altre attività dannose. Lo scorso mese, il Google Threat Intelligence Group ha rivelato che oltre 57 gruppi di minaccia legati a Cina, Iran, Corea del Nord e Russia hanno utilizzato il chatbot Gemini per migliorare diverse fasi dei loro attacchi, condurre ricerche su eventi attuali e generare contenuti, traduzioni e localizzazioni. Secondo OpenAI, la condivisione delle informazioni sulle minacce tra le aziende di interlinea artificiale, i fornitori di servizi cloud, le piattaforme social e i ricercatori indipendenti è cruciale per sviluppare nuovi metodi di individuazione e contrasto delle attività malevole online.