Skip to main content

IA e disinformazione. La grande sfida delle elezioni 2024

Mentre la corsa alla presidenza degli Stati Uniti si riscalda, un nuovo candidato fa capolino nell’arena elettorale: l’Intelligenza Artificiale. Con la crescente diffusione di tecnologie in grado di generare immagini e video falsi, cresce il timore che la disinformazione sulle prossime campagne elettorali sia in aumento

Il conto alla rovescia per le elezioni Usa è iniziato, e con esso un’ondata di fake news sta invadendo i nostri feed, seminando dubbi e confusione tra gli elettori. In un anno in cui più di cinquanta Paesi si preparano a recarsi alle urne, la minaccia della disinformazione generata dall’IA suscita allarme per il suo potenziale di manipolare gli elettori e mettere in pericolo i processi democratici su scala globale.

Gli esperti avvertono che l’IA, protagonista indiscussa di queste elezioni americane, potrebbe essere utilizzata per orientare gli elettori verso o lontano dai candidati, o persino per dissuaderli dal votare, aggravando ulteriormente un clima politico già fortemente polarizzato.

La fusione dell’IA con le tradizionali tattiche di disinformazione destabilizza l’arena elettorale, rendendo sempre più difficile distinguere la verità dall’inganno. L’IA – sotto forma di testi, audio, foto o video – può far sembrare che i candidati abbiano detto o fatto cose mai accadute per danneggiare la loro immagine e per ingannare gli elettori. Dal deepfake “parodia” di Kamala Harris alla robocall di Biden, stiamo assistendo a uno scenario che alimenta quotidianamente i timori sul futuro delle elezioni.

Nell’epoca della “post-verità” (Keyes, 2004), in cui proliferano i contenuti falsi – nella veste classica delle fake news o in quella più insidiosa dei deep fake – un tipo di giornalismo in grado di simulare la realtà suscita non poche perplessità. Eletta parola dell’anno per il 2016 dagli Oxford Dictionaries, la “post-verità” descrive una realtà in cui i fatti oggettivi hanno minore influenza nella formazione dell’opinione pubblica del ricorso alle emozioni e alle credenze personali. L’utilizzo di tale espressione non implica soltanto una successione temporale – “dopo” la verità – ma sottolinea la condizione di trovarsi “oltre” la verità stessa, evidenziando una problematica cruciale della cultura contemporanea in cui la verità è divenuta di secondaria importanza, se non irrilevante (Costa, 2017).

Il rischio più insidioso è la facilità con cui la tecnologia può rendere credibili contenuti falsi e manipolare quelli autentici, gettando le basi per una vera e propria “Infocalisse” – ossia una “apocalisse informativa” (Warzel, 2018) in cui il pericolo principale non è tanto essere ingannati, quanto arrivare a considerare tutto un inganno.

Sofisticate tecniche di manipolazione digitale, combinate con contenuti generati dall’IA, stanno già promuovendo narrazioni divisive tra gli elettori, mettendo a rischio l’integrità del processo democratico. Ecco alcuni esempi recenti che mostrano quanto questa minaccia sia già concreta.

“Io, Kamala Harris, sono la vostra candidata democratica alla presidenza perché Joe Biden ha finalmente svelato la sua senilità al dibattito”. All’apparenza un comune spot elettorale, in realtà un deep fake di Kamala Harris, la cui voce è stata ricreata grazie all’AI. Il video ha raggiunto quasi 130 milioni di visualizzazioni grazie al retweet di Musk ma non riportava la scritta “AI Generated Content”, come vorrebbe il regolamento interno del social. In risposta alle critiche del governatore della California Gavin Newsom, chiamato a rispondere di quanto accaduto, il patron di X ha ammesso, con un tweet, la natura parodica del video.

Ma non è l’unico esempio. Sulla sua piattaforma Truth Social, Trump ha falsamente affermato che la folla radunatasi per assistere al comizio della candidata democratica a Detroit non esistesse e che fosse un’immagine generata dall’AI.

Gli artifici della rete non hanno risparmiato neanche l’aspirante vice di Donald Trump, finito sotto i riflettori per una presunta bizzarra pratica sessuale del passato che ha ispirato una lunga carrellata di meme.

E ancora, lo scorso gennaio, due giorni prima che gli elettori si recassero alle urne per le primarie del New Hampshire, una robocall che impersonava Biden aveva esortato gli elettori a non votare ma a “conservare” il proprio voto per le elezioni generali di novembre. Più di recente, un video su X mostrava Biden che, con toni duri e insulti anti-LGBTQ, annunciava il ritiro dalla corsa presidenziale e il suo sostegno a Harris. Un filmato che in realtà proveniva da un discorso trasmesso in diretta dall’emittente PBS, in cui Biden condannava la violenza politica dopo l’attentato a Trump del 13 luglio.

All’appello non può mancare il patron di X. Dopo il ritiro di Joe Biden dalla corsa alla Casa Bianca, Grok, l’assistente di ricerca IA di Elon Musk, ha condiviso con milioni di utenti informazioni false sulla scadenza del termine per la candidatura di Kamala Harris in ben nove Stati.

Alcune campagne politiche, poi, hanno utilizzato l’IA anche per creare realtà alternative. Lo spot del Comitato nazionale repubblicano, ad esempio, descriveva una versione distopica del futuro in caso di rielezione di Biden.

Nel frattempo, oltre i confini nazionali, gruppi legati al governo iraniano stanno orchestrando campagne di disinformazione online su larga scala e tentativi di hacking per interferire nelle elezioni presidenziali statunitensi. Secondo il rapporto del Centro di analisi delle minacce di Microsoft, un gruppo iraniano chiamato Storm-2035 ha lanciato diversi siti web di notizie false per fuorviare l’elettorato sia di destra che di sinistra su questioni critiche: da “Nio Thinker”, che si rivolge ai liberali attaccando Trump, a “Savannah Time”, dedicato ai conservatori e incentrato su questioni LGBTQ+, in particolare sulla “riassegnazione del genere”.

L’era digitale ci mette davanti a nuove sfide. Il conto alla rovescia per le elezioni del 2024 è iniziato e, con esso, la battaglia per proteggere l’integrità del nostro sistema democratico. La posta in gioco non potrebbe essere più alta.



×

Iscriviti alla newsletter