Skip to main content

Democrazie contro autocrazie. La battaglia dell’IA spiegata da Imbrie (Georgetown)

“La storia ci insegna che l’innovazione tecnologica è intrinsecamente legata ai contesti geopolitici”, dice l’autore del libro “Il nuovo fuoco”. Le aziende possono contribuire a bilanciare innovazione e responsabilità, aggiunge sottolineando la necessità di un monitoraggio rigoroso degli impegni

Andrew Imbrie, docente alla School of Foreign Service della Georgetown University, si definisce un “ottimista di natura”, anche quando si tratta degli impatti dell’intelligenza artificiale. Serve, però, uno sforzo collettivo per evitare i rischi.

L’intelligenza artificiale è stata al centro del vertice dei leader del G7 della scorsa settimana. Qual è la sua valutazione del lavoro svolto sotto la presidenza italiana e del comunicato finale?

Il vertice del G7 ha evidenziato la doppia natura dei benefici e dei rischi dell’intelligenza artificiale. I leader sono concentrati su come massimizzare i benefici dell’intelligenza artificiale gestendo al contempo i rischi per garantire che siano equi e non mettano in pericolo nessuno. Organizzazioni internazionali come le Nazioni Unite, il G7 e l’Ocse stanno sviluppando strutture di governance, come il codice di condotta per l’intelligenza artificiale del G7 e i piani per monitorarne l’attuazione. Questo è cruciale poiché le aziende che guidano lo sviluppo dell’intelligenza artificiale devono essere responsabili, garantendo trasparenza e applicazione. Inoltre, il vertice ha discusso l’impatto dell’intelligenza artificiale sul mercato del lavoro, sottolineando la necessità che i governi preparino la forza lavoro per i cambiamenti legati all’intelligenza artificiale.

Uno scontro tra modelli, tra democrazie e autocrazie, è inevitabile anche per quanto riguarda una tecnologia come l’intelligenza artificiale?

La storia ci insegna che l’innovazione tecnologica è intrinsecamente legata ai contesti geopolitici. I governi democratici, come quelli del G7, stanno lavorando per definire regole che garantiscano che l’intelligenza artificiale sia potenziante, sicura, responsabile e affidabile. Il futuro dell’intelligenza artificiale dipende dalle scelte fatte da leader, politici e cittadini. Le politiche che modellano l’accesso ai dati, la potenza di calcolo, gli algoritmi e il talento dovrebbero allinearsi ai valori democratici. Questo include coinvolgere le comunità, stimolare gli ecosistemi di innovazione e garantire che i benefici dell’intelligenza artificiale siano ampiamente distribuiti e gestiti in modo responsabile.

L’Unione europea è orgogliosa di essere la prima a regolamentare l’intelligenza artificiale, mentre gli Stati Uniti e la Cina hanno approcci diversi. Come possono cooperare l’Unione europea e gli Stati Uniti che hanno una piattaforma come il Consiglio per il commercio e la tecnologia?

Gli Stati Uniti e l’Unione europea hanno approccio non così diverso come spesso viene raccontato. Condividono un approccio basato sul rischio all’intelligenza artificiale, bilanciando l’innovazione con la gestione dei rischi. La cooperazione può concentrarsi sulla promozione di una visione positiva per l’intelligenza artificiale, particolarmente nei mercati emergenti. Questo implica garantire che l’intelligenza artificiale supporti l’educazione, la sanità e l’agricoltura, coinvolgendo la società civile e vari dipartimenti governativi. L’attuazione e il monitoraggio della legislazione sull’intelligenza artificiale, lo sviluppo di standard e la promozione della ricerca e sviluppo sono aree chiave per la collaborazione. Una cooperazione efficace richiede un ampio coinvolgimento, impegni trasparenti e il monitoraggio degli incidenti per garantire che l’intelligenza artificiale serva il bene pubblico.

Come dovrebbe essere coinvolto il settore privato nella governance dell’intelligenza artificiale?

Poiché il settore privato è leader nello sviluppo dell’intelligenza artificiale, è cruciale coinvolgere l’industria per una governance efficace. Questo include comprendere le loro attività e garantire un equilibrio appropriato tra gestione del rischio e innovazione. l’intelligenza artificiale, come tecnologia di uso generale, impatta vari settori, richiedendo un ampio coinvolgimento delle parti interessate. Gli impegni volontari dell’industria sono positivi, ma devono essere monitorati e applicati. Un coinvolgimento e una consultazione più ampi sono essenziali per garantire che l’intelligenza artificiale si allinei agli obiettivi sociali e porti benefici a tutti, incluse le comunità emarginate.

Per quanto riguarda la competizione Stati Uniti-Cina, l’intelligenza artificiale è un fattore determinante o solo uno dei molti ambiti di competizione?

L’intelligenza artificiale è un’area chiave di competizione, a causa del suo ruolo fondamentale nei progressi tecnologici. Mentre i Paesi competono nell’innovazione dell’intelligenza artificiale, c’è un interesse condiviso nel garantire la sicurezza e la sicurezza dell’intelligenza artificiale. Bilanciare la competizione con una governance responsabile è difficile ma necessario. Una politica efficace implica correre più velocemente a casa proteggendosi allo stesso tempo dagli abusi. Garantire sicurezza, trasparenza e coinvolgimento pubblico è vitale mentre l’intelligenza artificiale continua a svilupparsi e a impattare vari settori a livello globale.

Pensando all’ipotesi di una seconda amministrazione Trump, quanto è importante la continuità per la governance dell’intelligenza artificiale?

La governance dell’intelligenza artificiale richiede quadri a lungo termine che sopravvivano alle singole amministrazioni. Una governance efficace implica cooperazione globale per garantire politiche resilienti e adattabili. Questo è uno sforzo collettivo che coinvolge società, leader, aziende e governi che lavorano insieme per molti anni per gestire l’intelligenza artificiale in modo responsabile.

“Il nuovo fuoco. Guerra, pace e democrazia nell’era dell’intelligenza artificiale” è il titolo del suo ultimo libro, scritto con Ben Buchanan e pubblicato in Italia da Bocconi University Press. Il fuoco può simboleggiare cose positive come il progresso ma anche cose negative come un incendio. Lei è ottimista riguardo all’intelligenza artificiale?

Il futuro dell’intelligenza artificiale è incerto, con potenziali grandi benefici e significativi rischi. La chiave è fare scelte informate nella governance e nello sviluppo. Sono ottimista di natura, ma anche perché sempre più persone stanno diventando coinvolte con le implicazioni dell’intelligenza artificiale e lavorano per una governance responsabile. Tuttavia, un’attenzione sostenuta e uno sforzo collettivo sono essenziali per indirizzare l’intelligenza artificiale verso risultati positivi.

Gli Stati Uniti e l’Unione europea sottolineano un approccio whole-of-society della società nell’ambito cyber. Questo vale anche per l’intelligenza artificiale?

È necessario un approccio stratificato alla governance dell’intelligenza artificiale, coinvolgendo esperti tecnici, funzionari governativi, diplomatici, esperti di sviluppo e cittadini. Una governance efficace richiede un ampio coinvolgimento e partecipazione da tutti i settori per garantire che i benefici dell’intelligenza artificiale siano ampiamente condivisi e allineati ai valori sociali. Questo dialogo continuo e inclusivo è cruciale per gestire l’impatto dell’intelligenza artificiale in modo responsabile.


×

Iscriviti alla newsletter