Dopo l’invasione russa dell’Ucraina, la Cina ha sviluppato la “guerra cognitiva algoritmica”, utilizzando l’IA per influenzare individui attraverso grandi quantità di dati. Libby Lange (Special Competitive Studies Project) spiega come Pechino usi questi dati per creare contenuti mirati sfruttando gli algoritmi. TikTok ancora al centro delle preoccupazioni
Dopo l’invasione russa dell’Ucraina avviata il 24 febbraio 2022, gli studiosi cinesi di sicurezza militare e nazionale hanno iniziato a promuovere un nuovo concetto guerra cognitiva. Lo chiamano “guerra cognitiva algoritmica”. Al centro ci sono gli algoritmi di intelligenza artificiale che possono influenzare gli individui in maniera sempre più mirata.
A questo concetto ha dedicato un’analisi Libby Lange, a capo dell’intelligence del Special Competitive Studies Project, una fondazione collegata al Eric and Wendy Schmidt Fund for Strategic Innovation, di Eric Schmidt, ex amministratore delegato di Google. La chiave della visione cinese della guerra cognitiva algoritmica è rappresentata dalle enormi quantità di dati necessari per alimentare gli algoritmi in grado di analizzare gli individui e di comprenderne le preferenze, le condizioni mentali e le relazioni, osserva Lange. In questo quadro, i tratti personali non sono solo dati statici, ma piuttosto un mosaico in continua evoluzione che può essere monitorato e mappato.
L’ambizione va oltre la semplice raccolta delle attività pubbliche sui social media o di altri dati pubblicamente disponibili; uno studio cinese descrive come un “mare di dati” possa essere usato per capire il tipo preciso di contenuti che hanno più probabilità di influenzare una persona specifica in un momento specifico. Per farlo, molti di questi dati dovrebbero essere acquistati dai fornitori di dati o rubati. E finora la Cina si è dimostrata disposta a fare entrambe le cose, ricorda Lange.
La guerra cognitiva algoritmica cerca di sfruttare gli algoritmi in due modi, scrive l’esperta. Primo: per analizzare grandi quantità di dati sugli individui per creare profili utilizzati per indirizzarli con contenuti. Secondo: per sfruttare gli algoritmi di raccomandazione incorporati nelle piattaforme dei social media per garantire che i loro contenuti raggiungano il pubblico di destinazione.
E qui non si può non parlare di TikTok, piattaforma della società cinese ByteDance (dunque soggetta a leggi cinesi che possono richiedere, per esempio, la collaborazione con intelligence e forze di polizia), vietata per ragioni di sicurezza nazionale sui dispositivi governativi nell’Unione europea e negli Stati Uniti. Ma la sicurezza dei dati non è l’unica preoccupazione. C’è anche quella della diffusione di disinformazione.
In un mondo dominato dagli algoritmi, il contenuto più coinvolgente vince, osserva Lange. Le operazioni di influenza legate alla Cina hanno spesso fallito perché troppo ideologiche. Tuttavia, i sostenitori della guerra cognitiva algoritmica propongono maggiore flessibilità nei contenuti per massimizzare l’engagement. Negli Stati Uniti e a Taiwan, si osserva già questo cambiamento, avverte. Per esempio, una campagna di influenza cinese negli Stati Uniti ha creato contenuti su temi politici divisivi, ottenendo milioni di visualizzazioni su TikTok.
Gli esperti militari cinesi immaginano di creare contenuti su misura per gli utenti, utilizzando un processo di feedback per controllare e valutare l’efficacia delle operazioni. Un altro elemento cruciale è l’algoritmo di raccomandazione dei social media, come detto. Se l’Esercito popolare di liberazione o altre entità avessero accesso a questi algoritmi, potrebbero garantire che i contenuti “giusti” raggiungano il pubblico target al momento giusto, avverte Lange sollevando preoccupazioni su app come TikTok.
Lange offre quattro suggerimenti al governo americano – ma possono essere valere anche per il resto dell’Occidente – per affrontare la guerra cognitiva algoritmica. Primo: monitorare l’evoluzione di strumenti emergenti come l’intelligenza artificiale generativa e la realtà virtuale per comprendere come vengono discussi e utilizzati nelle operazioni reali. Secondo: sviluppare meccanismi di allerta rapida sulle attività di influenza per proteggere meglio la popolazione. Terzo: rafforzare la comunicazione strategica attraverso canali tradizionali e online per contrastare la propaganda che mira a minare le istituzioni democratiche. Quarto: proteggere i dati dei cittadini statunitensi limitandone la cessione per impedire che vengano utilizzati per la guerra cognitiva algoritmica, valutando anche ulteriori restrizioni sui tipi di dati da proteggere.