Skip to main content

Fake news cinesi e rischi IA sul voto Usa. La mossa di Meta

Cina

L’azienda di Menlo Park ha chiuso 4.800 profili che sponsorizzano disinformazione volta a incancrenire le posizioni degli americani, toccando temi polarizzanti come l’aborto o l’assistenza medica. A un anno dal voto, ci sono voragini nella lotta alle fake news che spaventano gli esperti

“Il cambiamento più notevole nel panorama delle minacce rispetto al 2020”. C’è preoccupazione ma anche consapevolezza nelle parole rilasciate dal responsabile dell’intelligence sulle minacce globali di Meta, Ben Nimmo. Parlando con la stampa, ha spiegato l’aumento dei tentativi di disinformazione lanciati dalla Cina, molto più numerosi negli ultimi dodici mesi. Per tale ragione la sua azienda si è vista obbligata a rimuovere migliaia di account (4.800 per l’esattezza) aperti nella terra del Dragone, che si spacciavano per utenti americani con nomi, foto e residenze false, ripetendo a pappagallo i post di alcuni media e politici, che siano repubblicani come Ron DeSantis o democratici come Nancy Pelosi. Per mistificare, ogni tanto questi profili postavano contenuti legati agli animali o alla moda. L’obiettivo non sembra dunque quello di screditare un’ala politica, quanto piuttosto di seminare zizzania e esacerbare le posizioni.

Niente che possa rimandare a un’entità diretta con cui prendersela, fa sapere l’azienda di Mark Zuckerberg. Ma la questione è rilevante perché si sta notando un cambiamento di strategia, proprio a ridosso delle elezioni presidenziali americane.

Non è la prima volta che Washington si trova a combattere il fenomeno delle fake-news, né tantomeno è un unicum il fatto che dietro ci sia – in qualche modo ancora da provare – il governo cinese. Il problema in questo caso è la quantità di spazzatura che viene promossa, andando a toccare temi estremamente polarizzanti in America, come l’aborto e l’assicurazione medica. Il voto del 2024 sarà determinante, con un peso ancor maggiore rispetto a quello di quattro anni fa per via delle turbolenze internazionali che sono sorte. Non è pertanto inimmaginabile pensare che gli avversari degli Stati Uniti, come Russia, Iran e Corea del Nord, possano favorire una disinformazione.

Per questo servirebbe una maggiore collaborazione. Esattamente quella che manca. “Ci sono state molte volte in cui un suggerimento del governo ci ha permesso di agire rapidamente”, ha dichiarato il capo della sicurezza di Meta, Nathaniel Gleicher. Una pratica che adesso sembra venir meno, perché nessuna agenzia governativa riferisce più informazioni relative alle interferenze esterne. L’azienda madre di Facebook e Instagram, due dei canali di accesso preferiti degli hacker, non riceve più rapporti da luglio scorso.

Nel mirino dei sabotatori non ci sono solamente gli States. Usano le loro piattaforme tecnologiche, certo, ma i target sono anche l’India, il Messico, il Pakistan, Taiwan, Ucraina e tanti altri. Ancor più che quella americana, per la Russia è importante la narrazione attorno a Kiev, come ha sottolineato la stessa Meta in un suo rapporto pubblicato mercoledì. “Mentre la guerra continua, dovremmo aspettarci soprattutto di vedere tentativi russi di prendere di mira dibattiti legati alle elezioni e candidati che si concentrano sul sostegno all’Ucraina”, ha avvertito Ben Nimmo.

Nel suo documento, Meta ha sottolineato come l’avvento dell’intelligenza artificiale generativa rappresenterà un ulteriore sfida, perché sono state notate “prove che questa tecnologia venga utilizzata da note operazioni di influenza segrete per fare affermazioni di hack-and-leak”. Questa sensazione arriva da più parti, non solo dagli Stati Uniti ma anche dall’Europa. L’Ue è attesa in primavera da elezioni di importanza simile a quelle americane, il che lascia pensare che possano diventare oggetto di manipolazione da parte di attori esterni. Per questo occorre alzare le barriere.

Meta sta investendo molto nell’IA, per cercare di contenere quanto più possibile i rischi che da essa derivano. Quasi cento partner indipendenti aiuteranno a rivedere qualsiasi contenuto sospetto generato artificialmente, mentre l’azienda ha varato una nuova policy che obbliga tutti coloro che pubblicano annunci politici a segnalare se sono realizzati con l’IA. Seguendo lo stesso concetto, la maggior parte dei membri del suo reparto IA responsabile è stata spostata in quello che si occupa di IA generativa, pur sempre continuando a occuparsi della prevenzione dei rischi. “Sebbene l’uso dell’intelligenza artificiale da parte di noti autori di minacce che abbiamo visto finora sia stato limitato e non molto efficace, vogliamo rimanere vigili e prepararci a rispondere man mano che le loro tattiche si evolvono”, si legge nel rapporto.

A meno di un anno dal voto, sembrerebbero esserci delle voragini in termini di sicurezza. Meta prova a chiuderle individuando account falsi che potrebbero infilarsi in questi buchi, ma allo stesso tempo l’azienda di Menlo Park accetterà pubblicità a pagamento per promuovere sulla sua piattaforma contenuti che rivendicano l’illegittimità del voto del 2020.

Le leggi che il Congresso vorrebbe varare per fronteggiare la disinformazione online verranno approvate con ogni probabilità dopo che verrà scelto il prossimo presidente americano. Nel frattempo, sarà meglio rivitalizzare la collaborazione tra pubblico e privato se non si vogliono correre rischi.

×

Iscriviti alla newsletter