Meno regole dettate da fobie collettive e migliore approccio strategico per affrontare rischi reali e godere dei benefici dell’innovazione, attraendo investimenti. Questo il comune approccio alle nuove tecnologie di Mario Draghi e di Gavin Newsom, governatore della California. La percezione dei rischi e la possibilità che i governi possano limitarne la diffusione non sembrano più fattori decisivi nella corsa all’AI, almeno negli Usa
Mario Draghi non poteva essere più esplicito nel suo rapporto “The future of European competitiveness”: “L’approccio normativo dell’Ue nei confronti delle aziende tecnologiche ostacola l’innovazione.” Il motivo è semplice: “Molte norme dell’Ue adottano un approccio precauzionale, imponendo pratiche aziendali specifiche ex ante per prevenire potenziali rischi ex post”. Il ritardo con cui talvolta intervengono è paradossale, specialmente l’AI Act che “impone ulteriori requisiti normativi sui modelli di intelligenza artificiale di uso generale che superano una soglia predefinita di potenza computazionale – una soglia che alcuni modelli all’avanguardia superano già”. La conclusione è allarmante: “Le barriere normative limitano la crescita”.
L’applicazione del principio precauzionale allo sviluppo dell’intelligenza artificiale (AI) fino a oggi ha spinto molti governi a identificare e definire sistemi regolatori in un quadro di collaborazione e interazione a livello G7, Ocse, Onu e in altri contesti istituzionali. La Ue ha con orgoglio rivendicato di essere la prima autorità a livello internazionale ad adottare una normativa complessiva a marzo scorso, l’AI Act appunto. Ha dato così una prima risposta al di qua dell’Atlantico a chi nell’innovazione vede soprattutto rischi. Nel frattempo, negli Stati Uniti d’America il Congresso ha dedicato lunghe sessioni alla valutazione di rischi e opportunità, ma ha scelto di non intervenire. Il Presidente Biden ha adottato a ottobre 2023 l’unico testo normativo generale, l’Executive Order on Safe, Secure, and Trustworthy Artificial Intelligence. Obiettivo fondamentale: investire in innovazione e mantenere la leadership nell’AI con un approccio flessibile e dinamico alla riduzione dei rischi.
A livello statale ci sono state alcune iniziative limitate. Lo Stato della California che ospita 32 delle 50 principali aziende di AI al mondo, si è mosso con grande cautela. Il 30 settembre il governatore Gavin Newsom ha posto il suo veto a una legge sull’AI approvata dal parlamento statale a fine agosto. Le norme intendevano introdurre requisiti per la riduzione dei rischi catastrofici, audit indipendenti obbligatori e una funzione di blocco totale delle piattaforme di AI in caso di rischi catastrofici. Obblighi previsti non per tutti i modelli ma solo per quelli “realizzati utilizzando una quantità di potenza di calcolo superiore a operazioni intere o in virgola mobile pari a 10 alla ventiseiesima potenza, il cui costo supera i cento milioni di dollari”. Una soglia che nessun modello attuale ha ancora superato, sebbene presto lo scenario potrebbe cambiare.
Le ragioni del diniego di Newson sono basate su principi generali che dovrebbero ispirare i legislatori, non solo oltreatlantico. Il primo: la sicurezza dei sistemi non implica necessariamente adottare “soluzioni non basate su un’analisi empirica della loro evoluzione e delle loro capacità”. Vale a dire, i rischi devono essere prevenuti basandosi su analisi fattuali e su prove concrete collegate allo sviluppo e alle prestazioni dei sistemi. Non tutto è rischioso a prescindere, i rischi devono essere pragmaticamente identificati e le soluzioni proporzionate. Potemmo ancora dire, il principio di precauzione va tarato considerando le esigenze effettive senza diventare un alibi per fermare l’innovazione.
Secondo principio: i rischi non vengono solo dai sistemi di grandi dimensioni. Anzi, modelli piccoli e specialistici possono essere persino più pericolosi di quelli più grandi, che stanno diventando i target principali delle normative in discussione. Vale a dire, la dimensione delle piattaforme non è necessariamente un fattore di rischio in sé. Terzo principio: i rischi vanno valutati in base al contesto in cui i modelli sono applicati e utilizzati. Anche qui un bagno di realtà, non basta dire che una tecnologia – come avviene in altri campi per un’arma o un farmaco – sia rischiosa di per sé, bisogna considerare l’uso che se ne fa. Vanno analizzati, cioè, il livello di rischio del contesto in cui viene dispiegata e il tipo di dati che vengono utilizzati. Se si tratta di funzioni di base non devono essere esagerati i rischi che si corrono.
L’impostazione di Newsom punta su “adattabilità, fondamentale mentre regolamentiamo una tecnologia ancora in fase iniziale.” La conclusione è disarmante nella sua chiarezza: “qualsiasi quadro per la regolamentazione efficace dell’IA deve tenere il passo con la tecnologia stessa”. Attenzione quindi a non morire di iper-regolamentazione, spingendo gli investitori a cercare altri lidi. Meglio introdurre regole particolari, non onnicomprensive, che affrontano i rischi specifici e noti posti dall’AI.
L’approccio di Draghi e quello di Newson vanno quindi nella stessa direzione: meno regole dettate da fobie collettive e migliore approccio strategico per affrontare rischi reali e godere dei benefici dell’innovazione, attraendo investimenti. Un approccio apparentemente in controtendenza se si considerano gli appelli alla regolamentazione degli stessi protagonisti della corsa dell’AI, Elon Musk, Sam Altman (OpenAI), Sundar Pichai (Google), Satya Nadella (Microsoft), Mark Zuckerberg (Meta).
Eppure, probabilmente il 2024 sarà probabilmente ricordato come l’anno della svolta nel dibattito pubblico sulla regolamentazione dell’AI. Le richieste di regolamentazione e prevenzione dei rischi culminate con l’adozione nelle Ue dell’AI Act a marzo sembrano lontani. Negli ultimi mesi l’attenzione dei media si è concentrata, piuttosto, sui numerosi annunci di nuovi programmi di investimento su capacità computazionale – oggi stimata 60 gigawatt – e produzione di energia necessaria per alimentarla. Un gruppo di esperti del settore ha stimato che la domanda globale di capacità dei data center potrebbe aumentare a un tasso annuo compreso tra il 19 e il 22 percento dal 2023 al 2030, raggiungendo una domanda annua di 171 a 219 gigawatt, più del triplo di quella attualmente disponibile. Per evitare un grave deficit, sarebbe necessario costruire almeno il doppio della capacità di data center realizzata dal 2000 a oggi, in meno di un quarto del tempo. Solo un esempio di come la domanda sta crescendo in maniera verticale. Il Dipartimento dell’Energia degli Stati Uniti d’America ha realizzato supercomputer, i cosiddetti sistemi exascale, come il Frontier la cui capacità computazionale rappresenta un aumento di mille volte rispetto a cio’ che era disponibile nel 2010.
Dal 2015 al 2023, i carichi di lavoro dei data center sono quasi triplicati. L’aumento delle attività legate all’IA ha portato a una crescita prevista del 160% del consumo energetico dei data center entro il 2030. Attualmente, consumano circa l’1-2% dell’energia degli Stati Uniti, una percentuale che si prevede aumenterà fino al 3-4% entro il 2030. Questa domanda richiederà probabilmente 50 miliardi di dollari di investimento in capacità energetica aggiuntiva. D’altro canto, due terzi delle aziende intervistate da EY e McKinsey prevede di incrementar gli investimenti in AI nei prossimi anni, soprattutto nella gestione delle catene di approvvigionamento e delle relazioni con i clienti. Molte stanno pensando a soluzioni tecnologiche personalizzate, più accurate e affidabili.
La percezione dei rischi e la possibilità che i governi possano limitarne la diffusione non sembrano più fattori decisivi nella corsa all’AI, almeno negli Usa. Il rischio maggiore per l’Europa è di rimanere indietro nella competizione a innovare mentre Commissione europea e governi nazionali dedicano le proprie risorse istituzionali a realizzare un sistema di controllo dei rischi. Focalizzarsi su modelli di AI che superano la soglia di capacità computazionale, classificati come a rischio sistemico, potrebbe presto rivelarsi velleitario, come ricordato dal governatore Newsom. Come procedere con i sistemi meno estesi ma potenzialmente pericolosi? È arrivato il momento di una pausa di riflessione. Ricordando il monito del presidente francese Emmanuel Macron: norme rigide su modelli fondativi, come quelli usati per IA generativa, richiedono risorse significative per la conformità e potrebbero porre la Ue in una posizione di svantaggio rispetto a Stati Uniti e Cina. Nell’implementazione dell’AI Act la nuova Commissione di Ursula van der Leyen non potrà ignorare questo dato di realtà. E non potrà neanche eludere la sfida posta da un livello insoddisfacente di investimenti pubblici e privati in capacità computazionale e produzione di energia. Come ha ricordato di recente Dario Amodei, cofondatore di Anthropic, “la paura può motivare, ma non basta. Abbiamo bisogno anche della speranza.”
(Le opinioni espresse in questo articolo sono personali e non rappresentano in alcun modo quelle del governo Usa)