Skip to main content

La disinformazione sino-russa passa da ChatGpt. L’allarme di OpenAI

L’azienda creatrice del chatbot di fama mondiale denuncia un suo utilizzo da parte di gruppi legati a Russia e Cina per potenziare le loro capacità di influenza. Delineando rischi ancora maggiori per il futuro

Che l’Intelligenza Artificiale avrebbe avuto un impatto anche sulla conduzione dell’information warfare era chiaro fin dall’inizio della sua affermazione. E con il suo progredire, progredisce anche l’utilizzo che ne viene fatto in questo ambito. L’ultimo allarme viene lanciato da un report di OpenAI, la società che ha creato la famosissima chatbot ChatGpt, nel quale viene rivelato che attori con sede in Russia e in Cina hanno utilizzato l’intelligenza artificiale generativa per potenziare le loro operazioni di disinformazione su tematiche sensibili come Ucraina, Taiwan, Moldavia e Stati Uniti. In particolare, vengono segnalate ben cinque distinte operazioni di informazione condotte durante gli ultimi tre mesi che hanno utilizzato gli strumenti e i servizi offerti OpenAI per migliorare la loro efficacia o la loro portata.

A partire da quella linguistica. L’intelligenza artificiale generativa può infatti consentire agli operatori con una padronanza molto limitata dell’inglese (così come di altre lingue) di sembrare molto più autentici, così da conferire una maggiore verosimiglianza a post, commenti e interventi di sorta sui social facendoli sembrare quelli di un vero madrelingua. Alcuni degli attori coinvolti hanno utilizzato questi strumenti per aumentare il numero di commenti che potevano pubblicare su varie piattaforme social, creando l’impressione che esistesse un sentimento popolare molto diffuso contro gli Stati Uniti, l’Ucraina o altri obiettivi. Si tratta di un aspetto critico, poiché l’uso scorretto della lingua è uno dei pochi segni rivelatori utilizzati dall’utenza dei social network per classificare come legittimo e veritiero un contenuto Internet.

Un gruppo filorusso chiamato Bad Grammar ha utilizzato gli strumenti di OpenAI per accusare “i presidenti di Ucraina e Moldavia di corruzione, mancanza di sostegno popolare e di tradimento del proprio popolo per via delle ‘interferenze’ occidentali”. I commenti in lingua inglese su Telegram si sono concentrati su argomenti come l’immigrazione, le difficoltà economiche e le notizie del giorno. Questi commenti spesso utilizzavano il contesto degli eventi attuali per sostenere che gli Stati Uniti non dovrebbero sostenere l’Ucraina”, secondo il rapporto. Negli ultimi tempi la Russia ha indirizzato un maggior numero di operazioni di informazione verso la Moldavia, segnalando che potrebbe essere un potenziale obiettivo per l’invasione russa.

Un altro gruppo operante dalla Russia, chiamato Doppelganger, ha utilizzato lo strumento per pubblicare contenuti in inglese, francese, tedesco, italiano e polacco, facendoli sembrare molto più popolari di quanto non fossero. Ogni volta che la campagna pubblicava un meme o un video su 9GAG, da tre a cinque account rispondevano, di solito con messaggi semplici come “hahaha” o “lol”. Ognuno di questi account interagiva sempre e solo con i contenuti della campagna, e la maggior parte di essi era stata creata nella stessa data. Questo comportamento ha spesso attirato commenti critici da parte di altri utenti, molti dei quali hanno classificato gli account come “bot”.

L’uso dell’IA per manipolare la portata dei post è stato comune anche tra gli attori che “hanno usato i nostri modelli per generare grandi quantità di brevi commenti che sono stati poi pubblicati su Telegram, X, Instagram e altri siti”, si legge nel report.

OpenAI suggerisce un diverso utilizzo dell’IA da parte cinese. Pechino non utilizzerebbe gli strumenti dell’Intelligenza Artificiale per diffondere contenuti di trolling, ma per perfezionare le loro operazioni e aumentare l’analisi delle piattaforme, delle loro falle di sicurezza, del sentimento del pubblico online, ecc. Un gruppo cinese noto come Spamouflage “ha usato gli strumenti per eseguire il debug del codice, chiedere consigli sull’analisi dei social media, ricercare notizie ed eventi attuali e generare contenuti che sono stati poi pubblicati sui forum dei blog e sui social media”. E “hanno usato i nostri modelli per riassumere e analizzare il sentiment di un gran numero di post sui social media, in particolare quelli in lingua cinese”. Le persone che hanno agito per conto dell’Iuvm hanno usato i nostri modelli per creare tag per i siti web, che sembrano essere stati aggiunti automaticamente al sito web del gruppo”.

Nessuna delle campagne menzionate nel report di OpenAI avrebbe tuttavia avuto un grande impatto. Ma esse dimostrano come gli attori revisionisti stiano già cercando di utilizzare strumenti di IA per influenzare la percezione del pubblico su piattaforme di social media. Il rapporto di OpenAI segue gli sforzi dell’azienda per ottenere una legislazione che assicuri che i contenuti generati dall’IA siano chiaramente etichettati, ma mostra anche che, sebbene il rilevamento dei contenuti generati dall’IA stia migliorando, gli attori maligni possono ancora generarli e diffonderli molto più velocemente di quanto possano fare i moderatori.

×

Iscriviti alla newsletter