Skip to main content

Fake news alimentate dall’IA. Cosa accade tra Israele e Hamas

Il Soufan Center lancia l’allarme in vista delle presidenziali americane. Ma l’anno prossimo si voterà anche per il Parlamento europeo ed Enisa ha già messo in guardia da deep learning e altre tecnologie che possono essere sfruttate per campagne di disinformazione

La guerra in corso tra Israele e Hamas ha prodotto una serie di informazioni false o fuorvianti, anche immagini generate dall’intelligenza artificiale. La disinformazione e altre forme di manipolazione delle informazioni sono dilagate online, amplificate da falsi account di media, dal riutilizzo di vecchie immagini, da campagne di disinformazione deliberate da parte di attori sostenuti/allineati dallo Stato e da altri sforzi informativi maligni. Come ha spiegato Mattia Caniglia, associate director for capacity building del Digital Forensic Research Lab dell’Atlantic Council, a Formiche.net, il pozzo dell’informazione è “completamente inquinato, il livello di manipolazione è potenzialmente ampissimo”.

Da quando, alla fine del 2022, il pubblico ha ottenuto un accesso diffuso ai large language model (LLM) e ad altri strumenti di IA generativa, si è registrato un aumento generale della disinformazione alimentata dall’IA, con attori malintenzionati che cercano di condurre le loro campagne di influenza in modo più efficiente e meno dispendioso in termini di risorse. È quanto si legge in un IntelBrief del Soufan Center. “La disinformazione generata dall’IA avrà un impatto su diverse elezioni che si terranno nel 2024, anche negli Stati Uniti, dove la creazione di contenuti falsi o fuorvianti con gli LLM porterà probabilmente a un’elevata quantità di contenuti falsi efficienti, che potrebbero avere implicazioni significative offline se utilizzati per narrazioni altamente vetrificanti o per inviti ad azioni violente”, continua la nota.

Un simile allarme era stato lanciato nei giorni scorsi anche dall’Agenzia dell’Unione europea per la cibersicurezza (Enisa) nel “Threat Landscape” 2023. Particolare attenzione è posta dal report su Intelligenza artificiale e deep learning. Deepfake e altre tecnologie simile possono contribuire all’obiettivo di attacchi di social engineering. Per questo, il rapporto sottolinea l’importanza di tenere alta la guardia su chatbot, manipolazione delle informazioni e criminalità informatica. Ma non vanno sottovalutate neppure alcune tecniche più “vecchie” ma che richiedono meno sforzi, come l’avvelenamento dei motori di ricerca e il malvertising.

×

Iscriviti alla newsletter