Skip to main content

IA e campagne elettorali. Ecco la tempesta perfetta delle elezioni globali 2024

Un anno importante questo 2024 non solo perché al voto è chiamata metà della popolazione mondiale, ma anche perché le piattaforme digitali hanno sempre di più conquistato il ruolo di intermediari dell’informazione. Chi c’era e cosa si è detto al workshop promosso da Fondazione Pensiero Solido e il Centro Data Science and Complexity for Society “Intelligenza artificiale, informazione e campagne elettorali. Tra pericoli e opportunità, che fare?”

Una mattinata intera all’Università La Sapienza di Roma, dipartimento di Informatica, per l’appuntamento promosso da Fondazione Pensiero Solido, e il suo presidente Antonio Palmieri, per un workshop, “Intelligenza artificiale, informazione e campagne elettorali. Tra pericoli e opportunità, che fare?”, dove la squadra del prof. Walter Quattrociocchi, ordinario di Informatica, ha presentato un lavoro per discutere di uno dei grandi macro temi dei comunicatori di quest’anno: le elezioni globali del 2024.

Un tema, questo, che manda in fibrillazione gli esperti perché non solo al voto è chiamata metà della popolazione mondiale, ma anche perché le piattaforme digitali hanno sempre di più conquistato il ruolo di intermediari dell’informazione. Inoltre, per la prima volta, si potrà studiare l’impatto dell’intelligenza artificiale sul voto.

Un progetto prezioso anche in virtù del fatto, come ricordato da Giacomo Lasorella, presidente dell’Agcom intervenuto per i saluti iniziali, dal 17 febbraio verrà applicato il Digital services act a livello europeo a tutti gli intermediari online e dovrà essere controllato dalle autorità nazionali.

LO STUDIO: AI, INFORMAZIONE, CAMPAGNE ELETTORALI E MONITORAGGIO 

Creare un dialogo con le istituzioni sul rapporto fra informazione, dati e società è l’obiettivo del lavoro presentato dal prof. Walter Quattrociocchi, direttore del Centro Data Science and Complexity for Society. Che ruolo quindi può avere la scienza dei dati soprattutto a fini predittivi?

Quattrociocchi è subito chiaro nel dire che le persone tendono a cercare online informazioni che rafforzano le proprie convinzioni, trascurando o minimizzando quelle di contrasto. Fenomeno che potrebbe essere ulteriormente accentuato dal modello di business delle piattaforme – che hanno un orientamento non alla informazione ma all’intrattenimento – che potrebbe contribuire alla polarizzazione delle opinioni, ma che ad oggi rimane ancora una ipotesi e non una certezza.

Il monitoraggio e confronto sulle dinamiche informative durante le global elections quindi è utile per poter avere tantissimi dati su fake news, infodemia, disinformazione e tossicità dei contenuti.

VEDI QUI TUTTI GLI INTERVENTI DEL WORKSHOP

Insomma un’occasione unica per i ricercatori perché, come dice Quattrociocchi, le elezioni globali del 2024 rappresentano “finalmente la tempesta perfetta per misurare l’impatto reale delle informazioni sull’opinione pubblica, perché udite udite ad oggi abbiamo evidenze non a supporto ma addirittura contrarie. Cioè l’informazione che circola sui social non ha un impatto nello spostare i voti. L’informazione cristallizza l’opinione già esistente”.

Il monitoraggio dei ricercatori è già iniziato, con contesti, informazioni e campagne elettorali scelte. Lo studio delle elezioni e del nuovo sistema informativo, raccontato da Matteo Cinelli e Giulio Pecile, ricercatore e dottorando dell’Università La Sapienza, prende in esame solo alcuni grandi Stati nel mondo: Russia, Usa, India, Messico, Uk e i Paesi europei.

Verranno analizzati i flussi di informazioni pubblicate da testate e politici durante le stagioni elettorali catturati su più piattaforme e più Paesi, come Facebook, Instagram, Youtube, VK e Telegram.

Verranno caratterizzati tutti i Paesi a seconda della dieta mediatica, per capirne il panorama mediatico locale e confrontarlo con quello transnazionale. Con la finalità di osservare le differenze strutturali tra le diverse reti e l’evoluzione di ogni rete con l’avvicinarsi delle elezioni e in concomitanza con eventi globali. Alla fine per il caso Europa sarà interessante capire se una dieta mediatica simile porterà allo stesso risultato elettorale fra Paesi.

MICROSOFT: COME PREPARARSI ALLE NUOVE SFIDE

La presentazione di questa ricerca è stata anche una occasione di riflessione e di confronto fra addetti ai lavori, esperti e giornalisti. Cybersecurity, contenuti e supporto all’ingegno umano, rapporto tra pubblico e privato sono le tre sfide imprescindibili raccontate da Francesca Bitondo, direttrice Rapporti istituzionali Microsoft Italia.

Con un sempre più capillare aumento dell’intelligenza artificiale è fondamentale “poter proteggere i contenuti ed essere sicuri che rimanga il tracciamento dell’originalità e dell’autenticità degli stessi e che non si vada nella direzione dell’uso illecito”, come già è possibile riscontrare con deep fake e disinformazione, ha ricordato Bitondo. Microsoft, ha continuato, sta promuovendo anche una sinergia fra pubblico e privato che non può più attendere. Tanto più ci sarà coordinamento tra Stati e società a livello nazionale e internazionale, più si potranno cogliere i benefici dell’intelligenza artificiale e arginare i lati più pericolosi.

Già oggi negli Usa durante la campagna elettorale è possibile utilizzare Provenance, strumento di prima risposta per poter tracciare l’origine di un contenuto e far sì che non si perda l’autenticità nel suo utilizzo. Oltre al watermark, o sigillo, per proteggere i contenuti e tenerne traccia. E nell’ottica della Cooperazione tra aziende, Microsoft, Google e i big player sono impegnati nel Content to protect provenance authenticity, C2PA, per garantire standard comuni tra società. Una coalizione comune volta a diminuire la frammentazione, ad avere sempre tracciamento e originalità dei contenuti, attraverso un foro di dialogo che non si fermerà con le elezioni di quest’anno.

E grazie a questa visione comune durante la prossima Munich Security Conference che si terrà dal 14 al 16 febbraio verrà annunciata un’iniziativa sull’impegno comune fra aziende, “auspicando che la parte governativa possa fare parte di questo dialogo”, ha concluso Bitondo.

GOOGLE E LA CONSAPEVOLEZZA DELL’UTENTE

Dal punto di vista di Google, Diego Ciulli, head of government affairs and public policy Google, ha spiegato come il 2024 sarà il primo grande anno “in cui i partiti e i candidati non potranno profilare e fare pubblicità mirata. Potranno usare solo le macro-aree come il genere, i cluster e la chiave di ricerca”.

L’importante per l’azienda è che le persone siano consapevoli che quel contenuto che vedono è generato da intelligenza artificiale. Oltre il watermark infatti, spiega Ciulli, su YouTube è vietato caricare video sintetici che non siano dichiarati come tali.

META E LA IA ANCHE COME SOLUZIONE 

Controllo, collaborazione, interazione, stress test e una governance più diffusa sono gli obiettivi di Meta raccontati da Angelo Mazzetti, responsabile Relazioni istituzionali Meta. Tra le prime urgenze quella di portare avanti la massima trasparenza come azienda pioniera “che da oltre 10 anni utilizza l’intelligenza artificiale” con la certezza che gran parte dei contenuti creati saranno di intrattenimento ed innocui, ma la facilità con cui vengono generati rende la questione della trasparenza primaria. La scorsa settimana anche Meta ha deciso di inserire il watermark sulle sue piattaforme per i contenuti creati con AI, nell’ottica dell’interoperabilità con le altre società, come già spiegato dai rappresentanti di Microsoft e Google. Mazzetti ha inoltre ricordato come l’intelligenza artificiale abbia rappresentato per Meta una soluzione ad esempio nel decifrare e segnalare contenuti pericolosi come l’hate speech che negli ultimi anni è stato contrastato proprio grazie all’IA. Per quanto riguarda poi Facebook nello specifico Mazzetti ricorda come sia esistente già da tempo una enorme libreria di pubblicità elettorali, tanto per dare un’idea solo negli Usa ci sono ben 15 milioni di contenuti caricati.

MA LA POLITICA È PRONTA?

Oltre alle piattaforme e società digitali e alla presentazione dello studio, come detto il workshop è stato momento di confronto anche fra esperti tra cui Luca De Biase, editorialista, Il Sole 24 Ore, Domenico Giordano, social media strategist, editorialista, Alessio Jacona, giornalista, conduttore, curatore dell’Osservatorio Intelligenza Artificiale di Ansa.it, Maria Cristina Marchetti, ordinaria di Sociologia dei fenomeni politici, Università La Sapienza, Marco Marturano, esperto di comunicazione strategica, campagne elettorali e istituzionali, Massimiliano Panarari, sociologo della comunicazione, Università di Modena e Reggio Emilia, editorialista, Gabriella Pasi, direttrice di informatica e prorettrice per l’internazionalizzazione, Università Bicocca e Alessandra Serra, docente di linguistica, Università della Tuscia.

Ognuno ha messo in luce le peculiarità dell’anno elettorale a cui stiamo andando incontro, gli effetti sulle prossime Europee tra astensionismo e presa sugli indecisi delle varie informazioni veicolate dai nuovi media. La questione su cui sembrano tutti d’accordo è la difficoltà nella fase regolatoria di entrare nelle decisioni finali, dando prova di uno scollamento dei politici dalle analisi degli studiosi.

È d’altronde un dato anche il fatto che la politica, come ha ricordato nel suo intervento Giordano, non sia così tempestiva nel percepire i cambiamenti, i quali solitamente vengono adottati solo quando già sono nella società, ampiamente utilizzati. Come nel caso dei social in cui i primi account dei politici sono stati aperti molto dopo la capillarità delle piattaforme, basti pensare anche all’esempio di TikTok dove sono sbarcati all’ultimo minuto alle politiche del 2022 e anche con linguaggi ben lontani dal target. Secondo l’esperto infatti c’è da aspettarsi in questa campagna elettorale poca intelligenza artificiale, con la conseguenza che quando entrerà nella nostra quotidianità, la politica si troverà a rincorrere il “gap” sviluppatosi.


×

Iscriviti alla newsletter