Un nuovo report pubblicato da OpenAI racconta che un soggetto riconducibile alle forze di sicurezza cinesi avrebbe tentato di utilizzare ChatGpt per strutturare una strategia di discredito contro la premier giapponese Sanae Takaichi
Come rivela OpenAI, è stato chiesto a ChatGpt (che ha rifiutato di eseguire la richiesta), di generare una campagna di disinformazione con l’obiettivo di screditare la premier giapponese Takaichi. Non è stata l’intelligenza artificiale a progettare la campagna. Ma è stata l’intelligenza artificiale, paradossalmente, a contribuire a farla emergere.
Secondo quanto ricostruito dagli analisti di OpenAI, lo stesso utente sarebbe tornato successivamente sulla piattaforma per rifinire report operativi legati a quella che appariva come la medesima campagna. Dettaglio che suggerisce come l’operazione sarebbe poi andata avanti comunque, al di fuori dell’assistenza diretta dell’IA e con l’utilizzo si ChatGpt come strumento di back-office, come supporto linguistico e organizzativo per documentare attività già in corso.
L’IA come archivio operativo
Il report evidenzia come OpenAI sia stato utilizzato non tanto per la creazione di una campagna di disinformazione, quanto per la sua gestione operativa, che avrebbe permesso all’utente di revisionare relazioni su presunte “operazioni cyber speciali”, sintetizzare attività rivolte contro dissidenti cinesi e riorganizzare la documentazione relativa a campagne di pressione contro critici del Partito Comunista.
In sostanza, ChatGpt avrebbe funzionato come una sorta di taccuino digitale per tracciare attività clandestine.
Tra gli episodi citati nel report spiccano quelli di operatori che si sarebbero finti funzionari dell’immigrazione statunitense per intimidire oppositori residenti negli Usa. Ancora, vengono poi analizzati tentativi di far rimuovere account social attraverso documenti giudiziari falsificati e la diffusione online di un necrologio artefatto per simulare la morte di un dissidente.
A conferma del risvolto operativo in questione, OpenAI afferma nel report di aver trovato corrispondenze tra queste descrizioni e campagne effettivamente emerse nel 2023.
Il caso Takaichi
Il passaggio più politicamente delicato riguarda il Giappone, l’utente avrebbe chiesto all’IA di elaborare un piano articolato per minare la reputazione della futura premier Sanae Takaichi, anche alimentando il malcontento online sui dazi statunitensi sui prodotti giapponesi.
ChatGpt, che ha respinto la richiesta, registra che, poco dopo l’insediamento della leader, su forum e piattaforme digitali giapponesi siano comparsi hashtag ostili alla sua figura, accompagnati proprio da contenuti critici sulle politiche commerciali Usa.
Non esiste evidenza che tali contenuti siano stati generati tramite IA. Ma la coincidenza temporale segnala che la strategia informativa fosse già in fase di attuazione.
L’IA come moltiplicatore
Il caso evidenzia come l’intelligenza artificiale possa fungere da moltiplicatore organizzativo: se non crea da zero le campagne informative, può comunque essere utilizzata per renderle più efficienti archiviandole, coordinandole e raffinandole. E questo lascia spazio per un ulteriore terreno di competizione riguardante la capacità di gestione dei sistemi complessi di influenza.
In una fase di crescente competizione tra Stati Uniti e Cina sull’IA, la partita sembra giocarsi sempre meno sulla capacità di generare contenuti e sempre più sulla capacità di gestire sistemi complessi di influenza, industrializzandoli.
















