Skip to main content

Mario Draghi non poteva essere più esplicito nel suo rapporto “The future of European competitiveness”: “L’approccio normativo dell’Ue nei confronti delle aziende tecnologiche ostacola l’innovazione.” Il motivo è semplice: “Molte norme dell’Ue adottano un approccio precauzionale, imponendo pratiche aziendali specifiche ex ante per prevenire potenziali rischi ex post”. Il ritardo con cui talvolta intervengono è paradossale, specialmente l’AI Act che “impone ulteriori requisiti normativi sui modelli di intelligenza artificiale di uso generale che superano una soglia predefinita di potenza computazionale – una soglia che alcuni modelli all’avanguardia superano già”. La conclusione è allarmante: “Le barriere normative limitano la crescita”.

L’applicazione del principio precauzionale allo sviluppo dell’intelligenza artificiale (AI) fino a oggi ha spinto molti governi a identificare e definire sistemi regolatori in un quadro di collaborazione e interazione a livello G7, Ocse, Onu e in altri contesti istituzionali. La Ue ha con orgoglio rivendicato di essere la prima autorità a livello internazionale ad adottare una normativa complessiva a marzo scorso, l’AI Act appunto. Ha dato così una prima risposta al di qua dell’Atlantico a chi nell’innovazione vede soprattutto rischi. Nel frattempo, negli Stati Uniti d’America il Congresso ha dedicato lunghe sessioni alla valutazione di rischi e opportunità, ma ha scelto di non intervenire. Il Presidente Biden ha adottato a ottobre 2023 l’unico testo normativo generale, l’Executive Order on Safe, Secure, and Trustworthy Artificial Intelligence. Obiettivo fondamentale: investire in innovazione e mantenere la leadership nell’AI con un approccio flessibile e dinamico alla riduzione dei rischi.

A livello statale ci sono state alcune iniziative limitate. Lo Stato della California che ospita 32 delle 50 principali aziende di AI al mondo, si è mosso con grande cautela. Il 30 settembre il governatore Gavin Newsom ha posto il suo veto a una legge sull’AI approvata dal parlamento statale a fine agosto. Le norme intendevano introdurre requisiti per la riduzione dei rischi catastrofici, audit indipendenti obbligatori e una funzione di blocco totale delle piattaforme di AI in caso di rischi catastrofici. Obblighi previsti non per tutti i modelli ma solo per quelli “realizzati utilizzando una quantità di potenza di calcolo superiore a operazioni intere o in virgola mobile pari a 10 alla ventiseiesima potenza, il cui costo supera i cento milioni di dollari”. Una soglia che nessun modello attuale ha ancora superato, sebbene presto lo scenario potrebbe cambiare.

Le ragioni del diniego di Newson sono basate su principi generali che dovrebbero ispirare i legislatori, non solo oltreatlantico. Il primo: la sicurezza dei sistemi non implica necessariamente adottare “soluzioni non basate su un’analisi empirica della loro evoluzione e delle loro capacità”. Vale a dire, i rischi devono essere prevenuti basandosi su analisi fattuali e su prove concrete collegate allo sviluppo e alle prestazioni dei sistemi. Non tutto è rischioso a prescindere, i rischi devono essere pragmaticamente identificati e le soluzioni proporzionate. Potemmo ancora dire, il principio di precauzione va tarato considerando le esigenze effettive senza diventare un alibi per fermare l’innovazione.

Secondo principio: i rischi non vengono solo dai sistemi di grandi dimensioni. Anzi, modelli piccoli e specialistici possono essere persino più pericolosi di quelli più grandi, che stanno diventando i target principali delle normative in discussione. Vale a dire, la dimensione delle piattaforme non è necessariamente un fattore di rischio in sé. Terzo principio: i rischi vanno valutati in base al contesto in cui i modelli sono applicati e utilizzati. Anche qui un bagno di realtà, non basta dire che una tecnologia – come avviene in altri campi per un’arma o un farmaco – sia rischiosa di per sé, bisogna considerare l’uso che se ne fa. Vanno analizzati, cioè, il livello di rischio del contesto in cui viene dispiegata e il tipo di dati che vengono utilizzati. Se si tratta di funzioni di base non devono essere esagerati i rischi che si corrono.

L’impostazione di Newsom punta su “adattabilità, fondamentale mentre regolamentiamo una tecnologia ancora in fase iniziale.” La conclusione è disarmante nella sua chiarezza: “qualsiasi quadro per la regolamentazione efficace dell’IA deve tenere il passo con la tecnologia stessa”. Attenzione quindi a non morire di iper-regolamentazione, spingendo gli investitori a cercare altri lidi. Meglio introdurre regole particolari, non onnicomprensive, che affrontano i rischi specifici e noti posti dall’AI.

L’approccio di Draghi e quello di Newson vanno quindi nella stessa direzione: meno regole dettate da fobie collettive e migliore approccio strategico per affrontare rischi reali e godere dei benefici dell’innovazione, attraendo investimenti. Un approccio apparentemente in controtendenza se si considerano gli appelli alla regolamentazione degli stessi protagonisti della corsa dell’AI, Elon Musk, Sam Altman (OpenAI), Sundar Pichai (Google), Satya Nadella (Microsoft), Mark Zuckerberg (Meta).

Eppure, probabilmente il 2024 sarà probabilmente ricordato come l’anno della svolta nel dibattito pubblico sulla regolamentazione dell’AI. Le richieste di regolamentazione e prevenzione dei rischi culminate con l’adozione nelle Ue dell’AI Act a marzo sembrano lontani. Negli ultimi mesi l’attenzione dei media si è concentrata, piuttosto, sui numerosi annunci di nuovi programmi di investimento su capacità computazionale – oggi stimata 60 gigawatt – e produzione di energia necessaria per alimentarla. Un gruppo di esperti del settore ha stimato che la domanda globale di capacità dei data center potrebbe aumentare a un tasso annuo compreso tra il 19 e il 22 percento dal 2023 al 2030, raggiungendo una domanda annua di 171 a 219 gigawatt, più del triplo di quella attualmente disponibile. Per evitare un grave deficit, sarebbe necessario costruire almeno il doppio della capacità di data center realizzata dal 2000 a oggi, in meno di un quarto del tempo. Solo un esempio di come la domanda sta crescendo in maniera verticale. Il Dipartimento dell’Energia degli Stati Uniti d’America ha realizzato supercomputer, i cosiddetti sistemi exascale, come il Frontier la cui capacità computazionale rappresenta un aumento di mille volte rispetto a cio’ che era disponibile nel 2010.

Dal 2015 al 2023, i carichi di lavoro dei data center sono quasi triplicati. L’aumento delle attività legate all’IA ha portato a una crescita prevista del 160% del consumo energetico dei data center entro il 2030. Attualmente, consumano circa l’1-2% dell’energia degli Stati Uniti, una percentuale che si prevede aumenterà fino al 3-4% entro il 2030. Questa domanda richiederà probabilmente 50 miliardi di dollari di investimento in capacità energetica aggiuntiva​. ​D’altro canto, due terzi delle aziende intervistate da EY e McKinsey prevede di incrementar gli investimenti in AI nei prossimi anni, soprattutto nella gestione delle catene di approvvigionamento e delle relazioni con i clienti. Molte stanno pensando a soluzioni tecnologiche personalizzate, più accurate e affidabili.

La percezione dei rischi e la possibilità che i governi possano limitarne la diffusione non sembrano più fattori decisivi nella corsa all’AI, almeno negli Usa. Il rischio maggiore per l’Europa è di rimanere indietro nella competizione a innovare mentre Commissione europea e governi nazionali dedicano le proprie risorse istituzionali a realizzare un sistema di controllo dei rischi. Focalizzarsi su modelli di AI che superano la soglia di capacità computazionale, classificati come a rischio sistemico, potrebbe presto rivelarsi velleitario, come ricordato dal governatore Newsom. Come procedere con i sistemi meno estesi ma potenzialmente pericolosi? È arrivato il momento di una pausa di riflessione. Ricordando il monito del presidente francese Emmanuel Macron: norme rigide su modelli fondativi, come quelli usati per IA generativa, richiedono risorse significative per la conformità e potrebbero porre la Ue in una posizione di svantaggio rispetto a Stati Uniti e Cina. Nell’implementazione dell’AI Act la nuova Commissione di Ursula van der Leyen non potrà ignorare questo dato di realtà. E non potrà neanche eludere la sfida posta da un livello insoddisfacente di investimenti pubblici e privati in capacità computazionale e produzione di energia. Come ha ricordato di recente Dario Amodei, cofondatore di Anthropic, “la paura può motivare, ma non basta. Abbiamo bisogno anche della speranza.”

(Le opinioni espresse in questo articolo sono personali e non rappresentano in alcun modo quelle del governo Usa)

 

Draghi e il governatore Newsom spingono per un’AI flessibile

Di Gaetano Pellicano

Meno regole dettate da fobie collettive e migliore approccio strategico per affrontare rischi reali e godere dei benefici dell’innovazione, attraendo investimenti. Questo il comune approccio alle nuove tecnologie di Mario Draghi e di Gavin Newsom, governatore della California. La percezione dei rischi e la possibilità che i governi possano limitarne la diffusione non sembrano più fattori decisivi nella corsa all’AI, almeno negli Usa

A cosa punta la Turchia come componente della Nato

Erdogan riceve Rutte pensando a Trump: il primo meeting di una fase del tutto nuova del Bosforo va letto in filigrana rispetto a due elementi che si intrecciano geopoliticamente, la possibile cooperazione in materia di forniture all’industria della difesa e l’adesione turca alla Brics. Sullo sfondo l’ambizione erdoganiana di essere “ceo del post guerre”

Ai Med Dialogues il Mediterraneo torna la priorità strategica dell’Italia

Ai Med Dialogues, il mare e il potere navale tornano al centro del dibattito. L’esistenza e l’aggiornamento di una strategia mediterranea dell’Italia è ormai un’esigenza ineludibile per il Paese ma il rilancio italiano passa anche da un’ammissione degli errori del passato. In questa nuova era di sfide e opportunità l’Italia può giocare un ruolo da protagonista, ma attenzione a dare per scontato che il Mare Nostrum sia solamente “nostro”

Lo scenario sotteso alle ultime previsioni europee è preoccupante. L'analisi di Polillo

Da qui le conseguenze. Negli stessi calcoli della Commissione, l’eurozona nel periodo 2024/2026 crescerà della metà rispetto a quanto si prevede per gli Usa. Se poi si considerano le previsioni del Fondo monetario internazionale, i risultati sono ancora più allarmanti. L’analisi di Gianfranco Polillo

Kim vuole più missili. Cosa mostrano le immagini satellitari

Un’analisi satellitare ha rivelato l’ampliamento di un importante complesso missilistico nordcoreano. Sollevando preoccupazioni sul suo ruolo nel rifornire Mosca. Ma non solo

In Italia è l'ora dell'atomo. I piani del governo e il fattore consenso

Dalla sesta edizione dell’Intelligence week a Palazzo Altieri emerge una chiara accelerazione verso un’energia nucleare pulita e di ultima generazione. E così la crescente fiducia degli italiani verso l’atomo, come attesta un sondaggio di Swg, si sposa con la strategia industriale dell’esecutivo

Bae system svela il primo sottomarino senza equipaggio

La multinazionale britannica ha annunciato di aver testato con successo il primo sottomarino unmanned di grandi dimensioni del suo genere. Il sistema, con design modulare e architettura aperta, dispone di più spazio per le piattaforme operative e prefigura un futuro sempre più caratterizzato dall’integrazione uomo-macchina nelle Forze armate

I cattolici di serie A e di serie B non esistono. Il commento di Merlo

I cattolici di serie A e di serie B non esistevano ieri nella Democrazia Cristiana e, tantomeno, esistono oggi in uno scenario politico dove ci sono partiti che con il tradizionale patrimonio del cattolicesimo democratico, popolare e sociale c’entrano come i cavoli a merenda. Il commento di Giorgio Merlo

Portaerei Truman e nave spia Yantar. Inseguimento Usa-Russia nel Mediterraneo

Le due imbarcazioni, già vicinissime in Norvegia, sono passate nelle stesse ore dallo stretto di Gibilterra. Accanto a quella americana c’è anche la fregata italiana Carabiniere, che svolge un ruolo cruciale di difesa da potenziali minacce sottomarine, in particolari per i cavi

Così i Brics aprono nuove strade per i Paesi del Medio Oriente

L’espansione dei Brics rappresenta una svolta significativa nelle dinamiche globali, offrendo opportunità economiche e politiche per i Paesi del Medio Oriente. Ma sollevando al contempo interrogativi sulla sostenibilità e sulle sfide di questa nuova alleanza

×

Iscriviti alla newsletter