Skip to main content

L’Intelligenza artificiale e il futuro delle elezioni. Il confronto fra esperti in Usa

Di Oreste Pollicino

Il cocktail esplosivo disinformazione-Intelligenza artificiale è in grado di alterare in modo significativo, anzi decisivo, il dibattito pubblico che ormai si tiene prevalentemente (non soltanto però) sul web, specie nella prossima stagione elettorale (che vedrà le presidenziali negli Stati uniti ma anche le nostre elezioni del Parlamento europeo). Lettera da New York di Oreste Pollicino, ordinario di Diritto costituzionale all’Università Bocconi che in questo anno accademico è Fulbright Scholar e Global Fellow alla New York University

Qui negli Stati Uniti mercoledì 27 settembre ho potuto assistere, presso il Rules and Administration Committee del Senato americano, ad una serie di audizioni di esperti, policy makers e accademici la cui rilevanza ed attualità dell’oggetto è evidente dal titolo che si è voluto dare alla giornata : “AI and the Future of Our Elections”.

La preoccupazione strisciante da parte di tutti gli intervenienti (e partecipanti) era evidente, financo palpabile: il cocktail esplosivo disinformazione-intelligenza artificiale è in grado di alterare in modo significativo, anzi decisivo, il dibattito pubblico che ormai si tiene prevalentemente (non soltanto però) sul web, specie nella prossima stagione elettorale (che vedrà le presidenziali negli Stati uniti ma anche le nostre elezioni del Parlamento europeo).

Uno dei temi ricorrenti è stato quello di essere in grado di sapere trarre delle “lezioni dal passato”, e questo in due sensi.

Innanzitutto, è emerso come una lezione che dovrebbe essere ormai chiara è quella di non commettere quello che da molti è considerato oggi un errore. Ovvero di aver rinunciato a qualsiasi tentativo regolatorio nel periodo di genesi dell’allora nuova tecnologia di internet, di fatto delegando, in una piena stagione di liberismo digitale, al settore privato operazioni di enforcement e di bilanciamento che spettano invece al settore pubblico.

La seconda lezione a cui si è fatto riferimento è quella legata all’inerzia normativa e, in senso più ampio, regolatoria che ha preceduto le elezioni presidenziali, quelle del 2016, in cui l’impatto, in termini di (tentativi di) manipolazione del dibattito pubblico on line, e conseguentemente del risultato delle urne, è emerso in modo inequivocabile a valle delle elezioni stesse.

Sarebbe un errore fatale, otto anni dopo, quando il professionismo della disinformazione è tutt’altro che un fenomeno sconosciuto e può, peraltro, essere amplificato all’ennesima potenza grazie ad un perverso degli strumenti dell’intelligenza artificiale (a cominciare dei temutissimi deep fake) non agire a monte, cercando di attenuarne l’impatto attraverso un tentativo, da parte dello Stato federale, di prevedere degli strumenti più incisivi di lotta alla disinformazione.

Ovviamente, “the elephant in the room”, si è materializzato, ancora una volta, nella (ossessiva) preoccupazione di non sfiorare in alcun modo lo sconfinato ambito di protezione del primo Emendamento, specie in un momento in cui la Corte suprema, a chiara maggioranza repubblicana, (sei componenti su nove) ha dimostrato di volere ulteriormente accelerare con il suo approccio di digital expansionism del primo Emendamento. E si tratta di un approccio diffuso da parte del potere giurisdizionale negli Usa. Basti pensare che (e su questo la Corte suprema dovrà decidere prossimamente) una Corte federale ha concluso che l’amministrazione Biden, per il solo fatto di aver sottolineato nei confronti delle piattaforme l’esigenza di prestare una particolare attenzione nella gestione e rimozione di contenuti falsi, avrebbe violato il diritto delle piattaforme alla libertà di espressione.

Pragmaticamente, allora, come poter trovare un punto di equilibrio?

È emerso che ci sarebbero gli spazi per, come è stato espressamente proposto, “a narrow law prohibiting the use of AI to deceptively undermine US elections through fake speech”. A detta di molti, tale normativa potrebbe trovare una copertura costituzionale.

Cosa vuol dire? Semplicemente che è vero che il primo Emendamento, con la famosa metafora del libero mercato delle idee, tutela anche quelle espressioni e opinioni che possono risultare non veritiere, ma certamente, e su questo la Corte suprema ha una giurisprudenza consolidata, non c’è (né ci può essere) alcuna protezione costituzionale per chi intenzionalmente decide di frodare gli elettorali (e indirettamente, ovviamente, gli Usa).

Da molte parti si è fatto notare come la Federal Election Commission (Fec) negli Stati Uniti avrebbe, volendo, il potere di enforcement di un’eventuale normativa che, in termini precisi e dettagliati, per superare il temuto strict scrutiny test della Corte suprema, proibisca l’uso di strumenti di intelligenza artificiale in grado di dare una rappresentazione del tutto falsa della realtà e di condizionare dunque discorso pubblico e votazione finale.

Si aggiunga che il Congresso dovrebbe avere un interesse (ed anche un dovere costituzionalmente rilevante) a proteggere l’integrità del processo elettorale. E, d’altro canto, se parliamo di tutela della libertà di espressione, il primo Emendamento dovrebbe anche riconoscere a chi è legittimato ad esercitare il diritto di voto, di poterlo fare in modo informato e consapevole. Il che, ovviamente, include anche la capacità di non essere tratti volutamente in inganno da messaggi politici veicolati attraverso meccanismi di intelligenza artificiale. E, specialmente, di avere il diritto di sapere se autore del messaggio in questione è una persona umana o un algoritmo.

Vedremo dove questo dibattito porterà, certamente si tratta di tentazioni regolatorie che otto anni fa, quando è esploso negli Usa il tema della disinformazione nella stagione elettorale, erano impensabili.

La distanza, anche su questo tema, tra le due sponde dell’Oceano potrebbe accorciarsi ulteriormente.



×

Iscriviti alla newsletter