Skip to main content

Guerra cognitiva. Così la Cina prova a modellare Internet (e il mondo)

Per Pechino si tratta di una tattica importantissima, al pari di quelle che l’esercito adotta in terra, mare e aria. Si tratta di un modus operandi subdolo, difficile da arginare e allo stesso tempo molto proficuo. Il Dragone è quello che se ne serve di più, ma non è di certo l’unico

C’è un’arma che si utilizza in tempi di pace, tutti i giorni, senza che qualcuno se ne accorga. Non si impugna, né emette rumori. Si applica e basta. Il concetto di “cognitive war”, letteralmente traducibile come “guerra cognitiva”, uno strumento di pressione importante tanto quanto un tank o un jet da combattimento. Insinuarsi nella mente del proprio nemico, influenzarla e alla fine modellarla è d’altronde molto più subdolo di qualsiasi altra forma di soggiogazione. Specie perché questo modus operandi viene effettuato di nascosto, come scritto, nella nebulosa foschia di Internet. A utilizzarlo più di tutti gli altri è la Cina, che sfrutta i social network per insinuarsi nelle società altrui – leggasi nemiche – per influenzarle a suo piacimento.

Di questo argomento ne avevamo già scritto qui, ma la questione è lungi dall’essere risolta. Pechino considera questo strumento come l’elemento chiave per vincere lo scontro sullo scacchiere internazionale, tanto da inserire la guerra cognitiva al pare di quella di terra, mare e aria a cui si prepara l’Esercito Popolare. Il conflitto, come scrive il Defense One nella sua analisi, il principale campo di battaglia sono le piattaforme social. D’altronde è lì che la maggior parte delle persone trascorre gran parte del suo tempo: circa 36 giorni all’anno, che in una vita ammontano a 5 anni e mezzo. Pertanto, è lì che l’esercito digitale si schiera, nascondendosi dentro il loro cavallo di Troia – alias, TikTok.

Lo fa adottando quattro tattiche. La prima è quella del disturbo dell’informazione, quindi pubblicizzare materiale che possa far cambiare opinione agli utenti. Non per forza devono essere fake-news, ma basta anche riprendere contenuti pubblicati da organi di partito come il Quotidiano del Popolo. Grazie a questo, Pechino è riuscita a presentarsi in modo differente da quel che è. La seconda tattica è la competizione del discorso. Attraverso falsi account, o comunque nati con l’obiettivo di manipolare gli altri, si possono propinare alle persone argomenti che vanno al di là dei loro gusti ed opinioni. La domanda che si porranno è se l’algoritmo sia impazzito, ma in realtà è un tentativo di propinare una narrazione studiata a tavolino.

La terza tattica è invece l’oscuramento dell’opinione pubblica, che permette di monopolizzare i social. Avviene grazie ai bot, che pompano la visione che si vuole imporre. Si tratta di uno di quei casi in cui l’Intelligenza Artificiale Generativa è più un rischio che un beneficio. Attraverso l’apprendimento automatico infatti è possibile creare e quindi diffondere materiale falso, come immagini o video, condizionando l’utente. Qualora nessuno di queste tattiche dovesse funzionare, l’estremo rimedio è quello del blocco delle informazioni. In questo modo, si passano al setaccio tutti i materiali e si lasciano andare solo quelli che rafforzano il pensiero dominante.

È una pratica che non porta avanti solamente la Cina, ma anche gli Stati Uniti, quando ad esempio hanno deciso di cancellare da Internet tutti i materiali provenienti da Paesi come Cuba, Iran, Siria e in parte anche la Russia. Da quando Elon Musk siede al vertice di Twitter, o X, è stato riscontrato un aumento del 70% della disinformazione russa, cinese o iraniana. Il che comporta un obbligo in più per le Big Tech, chiamate a supervisionare meglio.

Per entrare un po’ nello specifico, rimanendo sull’attualità, un esempio di cognitive war è la “guerra su Twitter” tra Israele e Hamas del 2014. Un articolo della Cnn parlava chiaro. “La guerra su Twitter diventerà la nuova norma?”, si chiedeva annunciando un punto di non ritorno. Questo perché se anche le forze dell’esercito – regolare o clandestino – iniziavano a diffondere la loro versione sui social, il pericolo era che non si potesse credere più a nessuno.

Anche i materiali che vengono pubblicizzati possono essere fuorvianti, essendo molte volte decontestualizzati o forzati per far passare il messaggio che si vuole. Vedendo quel che accade in queste ore, possiamo rispondere alla domanda della Cnn: sì, è diventata la nuova norma.


×

Iscriviti alla newsletter