Skip to main content

OpenAI si muove contro il rischio fake sulle elezioni. Ecco come

L’anno in corso sarà decisivo per la tenuta dei sistemi liberali davanti agli abusi delle nuove tecnologie. OpenAI ha annunciato alcune misure contro l’uso dei suoi prodotti per attività di disinformazione. Intanto, si alza la pressione da parte della politica che sembra aver compreso i rischi dopo averli sperimentati sulla propria pelle

OpenAI ha annunciato una serie di nuove iniziative per contrastare l’uso dei suoi prodotti, a partire da ChatGpt, per attività di disinformazione, in vista delle elezioni di quest’anno in molte democrazie del mondo, comprese quelle per il Parlamento europeo e le presidenziali negli Stati Uniti. “Proteggere l’integrità delle elezioni richiede la collaborazione di tutti gli attori del processo democratico, e noi vogliamo assicurarci che la nostra tecnologia non venga usata in un modo che possa minare questo processo”, si legge sul blog dell’azienda. Citando abusi quali la creazione di deepfake, operazioni di influenza e l’utilizzo di chatbot, OpenAI promette di volersi assicurare che i suoi sistemi di intelligenza artificiale “siano costruiti, distribuiti e utilizzati in modo sicuro”.

OpenAI non consentirà l’utilizzo della sua tecnologia per sviluppare applicazioni destinate a campagne politiche e lobbying, per scoraggiare le persone dal votare o diffondere disinformazione sul processo di voto. Inoltre, inizierà, “all’inizio di quest’anno”, a inserire watermark incorporati nelle immagini per rilevare quelle generate con l’intelligenza artificiale tramite lo strumento DALL-E.

Intervistato oggi da Axios mentre si trovava a Davos per il Forum economico mondiale, Sam Altman, amministratore delegato di OpenAI, si è detto “nervoso” per l’impatto dell’intelligenza artificiale sulle elezioni di quest’anno in tutto il mondo e ha ammesso che l’evoluzione e la proliferazione della tecnologia richiederanno decisioni “scomode”. Ma ha anche difeso gli investimenti della sua azienda nel settore spiegando di voler “combattere una guerra all’ultimo sangue” sulla disinformazione elettorale.

Con la rapida diffusione dell’intelligenza artificiale (tenendo presente che il lancio di ChatGpt risale a novembre 2022), lo scenario è cambiato in breve tempo. “Le tecnologie hanno raggiunto il perfetto equilibrio tra realismo, efficienza e accessibilità”, ha dichiarato a Murphy Henry Ajder, consulente di Adobe e Meta per le questioni relative all’intelligenza artificiale, al Financial Times. ”Le preoccupazioni sull’impatto elettorale erano esagerate fino a quest’anno. E poi le cose sono accadute a una velocità che credo nessuno avesse previsto”.

Il giornale menziona il caso delle elezioni slovacche dell’anno scorso, in cui un audio artefatto del leader dell’opposizione liberale Michal Šimečka, che parlava di comprare voti e truccare le elezioni, ha attirato l’attenzione di un vasto pubblico durante il periodo precedente al voto e nel bel mezzo del silenzio elettorale. I responsabili del deepfake non sono stati identificati ed è difficile determinare quanto questo possa aver influito sulla decisione del voto. Tuttavia, nonostante fosse in testa nei sondaggi, Šimečka, alla fine ha perso contro il suo avversario, Robert Fico, sostenitori dello stop agli aiuti militari all’Ucraina davanti all’aggressione della Russia. Secondo gli esperti citati dal Financial Times, ciò che è accaduto in Slovacchia probabilmente si verificherà presto in molti altri Paesi del mondo. Il 2024 sarà un importante anno elettorale, un’occasione perfetta per testare i sistemi di intelligenza artificiale come raccontato su queste pagine da Pierluigi Paganini.

I provvedimenti adottati da OpenAI seguono quelli di altre aziende tecnologiche che hanno aggiornato le loro politiche in materia elettorale per far fronte al boom dell’intelligenza artificiale. A dicembre, Google ha dichiarato che avrebbe limitato il tipo di risposte che i suoi strumenti di intelligenza artificiale danno alle domande relative alle elezioni. Inoltre, ha dichiarato che richiederà alle campagne politiche che hanno acquistato spot pubblicitari di rivelare quando hanno utilizzato l’intelligenza artificiale. Anche Meta, la casa madre di Facebook, richiede agli inserzionisti politici di dichiarare se hanno utilizzato l’intelligenza artificiale. Tuttavia, come ha evidenziato il Washington Post nei mesi scorsi, contrastare la misinformazione, cioè la disinformazione senza l’aspetto doloso, non è così facile. Perché stabilire una politica è solo metà dell’opera: bisogna poi anche farla rispettare.

Ma qualche notizia positiva c’è. La scorsa settimana, il Guardian ha raccontato che alcuni video falsi del primo ministro britannico Rishi Sunak avevano raggiunto ben 400.000 visualizzazioni su Facebook prima che Meta li rimuovesse. Qualcosa di simile è accaduto negli Stati Uniti a un deputato, il repubblicano John Hodgson del Kentucky, che teme di essere preso di mira da attacchi deepfake per il fatto di avere due pecore da compagnia. “Immaginate se a tre giorni dalle elezioni qualcuno dicesse che sono stato colto in un rapporto con una pecora e la notizia venisse inviata a un milione di elettori”, ha dichiarato al New York Times. “Non ci si può riprendere da questo”.

Queste storie, secondo Casey Newton, dimostrano due cose sui deepfake: i capi di Stato si dimostreranno più resistenti agli attacchi deepfake rispetto ai candidati meno noti, poiché i media nazionali dedicheranno più tempo a smascherare le menzogne su di loro, impedendo a queste narrazioni di prendere piede; le piattaforme interverranno rapidamente per rimuovere i deepfake di personaggi nazionali per paura di ritorsioni da parte dei governi nazionali. C’è speranza, dunque, perché la politica, a partire da quelle americana e britannica, sembra decisa a muoversi avendo sperimentato sulla propria pelle i rischi dell’intelligenza artificiale.



×

Iscriviti alla newsletter