Skip to main content

Autocrazie e algoritmi. Come Russia, Cina e Iran usano l’IA contro di noi

I regimi autoritari utilizzano la tecnologia per controllare la propria popolazione, esportare la propaganda, sviluppare il proprio arsenale militare e influenzare i rivali. Grazie a una tecnologia sicura e affidabile, da raggiungere attraverso alleanze basate su valori comuni, si può alzare un argine e respingere i pericoli

Cooperare per diffondere fiducia. Questa potrebbe essere una ricetta per le democrazie che intendono promuovere uno sviluppo tecnologico sano, sicuro, basato su valori inappellabili. La tecnologia, d’altronde, non ha nulla di neutrale. Al contrario, assume la natura di chi ci mette la mani. Se a farlo sono dei governi responsabili, che pensano al progresso collettivo, allora l’intelligenza artificiale può davvero diventare il motore del cambiamento. Se invece si lascia spazio a regimi autoritari, il rischio che le macchine possano ritorcersi contro è molto alto.

Lo stiamo vedendo già adesso. Russia, Cina, Iran, Corea del Nord (e non solo) sfruttano l’IA per diffondere la propria propaganda, intrufolarsi nei sistemi altrui tramite campagne di hacking, reprimere le proprie popolazioni, modernizzare il proprio arsenale militare. Insomma, utilizzano la tecnologia per rafforzare il loro potere. Non solo: possono anche influenzare, e quindi modellare, la catena di approvvigionamento. Lo abbiamo visto con Pechino. Non appena Washington ha imposto dei dazi sulle sue merci, la risposta è stata il blocco delle terre rare. I cinesi sanno benissimo che finché detengono la maggioranza delle risorse, e soprattutto il monopolio (o quasi) sulla loro raffinazione, possono utilizzarle come leva negoziale. E infatti gli americani hanno fatto subito marcia indietro.

Tutto questo deve servire da lezione. Se vogliono vincere la partita tecnologica, le democrazie devono unire le loro forze. Vincere la sfida significa immaginare un mondo regolato da tecnologie che rispettano i valori delle società libere. Ma per riuscirci occorre una buona dose di fiducia. Al contrario di quello che si pensa, le nuove generazioni sono più spaventate che non entusiaste dell’IA. Questo rappresenta un segnale chiaro di come non si fidino – appunto – di chi le mette in circolazione. Se fossero i regimi autoritari a dettare gli standard etici, in che mondo vivremmo?

In parte, la lezione è stata assimilata. E anche messa in pratica. Lo dimostrano le varie alleanze tra paesi. Da ultima la Pax Silica lanciata da Donald Trump, con cui la Casa Bianca cerca di mettere in sicurezza la catena di approvvigionamento per evitare di subire le decisioni di governi rivali. Eppure potrebbe non bastare.

Non tanto perché le alleanze siano poca cosa. Anzi, tutt’altro. Piuttosto, sono poco tangibili agli occhi dei comuni cittadini. Quello che davvero interessa alla popolazione è la sicurezza degli strumenti che utilizza. Ecco perché per i governi democratici diventa imprescindibile mettere in commercio dispositivi che siano trasparenti e affidabili. Anche perché quei modelli sono più facili da finanziare, da adottare e da integrare nei sistemi senza scoperchiare vasi di Pandora, come delle vulnerabilità che possono essere sfruttate da malintenzionati.

La vicenda di Mythos Peview è un ottimo esempio. Anhtropic ha deciso di non rilasciarlo al pubblico in quanto troppo potente. Il modello è stato infatti in grado di trovare delle vecchie vulnerabilità zero-day – utilizzabili fin da subito – per cui la startup di Dario Amodei ha preferito farlo utilizzare solo ad aziende competenti. Tuttavia, il governo americano è fortemente interessato a integrarlo nelle sue agenzie federali, perché lo strumento potrebbe dare una grande mano. Ecco, collaborare con aziende che fanno dell’etica il loro punto di forza potrebbe essere un ottimo modo per diffondere fiducia.


×

Iscriviti alla newsletter