l’AI Act dell’Unione europea rappresenta un passo significativo verso la regolamentazione globale dell’intelligenza artificiale, con implicazioni che vanno ben oltre i confini europei. Le aziende statunitensi, in particolare, dovranno navigare tra le nuove normative con attenzione, sfruttando al contempo le opportunità di collaborazione internazionale
L’Unione europea ha approvato nel mese di giugno un nuovo quadro normativo rivoluzionario per la regolamentazione dell’intelligenza artificiale (IA), noto come AI Act, che avrà significative ripercussioni sulle aziende straniere che operano nel mercato europeo. Questo insieme di regole, che rappresenta una delle più dettagliate e rigorose normative sull’IA a livello globale, è stato progettato per garantire che lo sviluppo, il test e l’uso dell’IA siano gestiti in modo sicuro e trasparente.
Per comprendere meglio i cambiamenti normativi, un nuovo report pubblicato dal think tank Rand, spiega come le nuove norme dell’Unione europea (Ue) avranno un impatto significativo soprattutto sulle aziende statunitensi, specialmente quelle che sviluppano modelli di IA all’avanguardia. Queste aziende, se vogliono continuare a vendere i loro prodotti in Europa, dovranno conformarsi alle stringenti regole imposte dall’AI Act, anche se la loro sede operativa è al di fuori dell’Ue. Questo significa che le imprese statunitensi saranno obbligate a soddisfare i requisiti di test e segnalazione dei loro modelli IA, in linea con quanto richiesto dall’Ue, indipendentemente dalle politiche attualmente in vigore negli Stati Uniti.
Un aspetto cruciale del rapporto del Rand evidenzia come il concetto di “rischio sistemico” sia centrale nella regolamentazione europea. I modelli che superano una certa soglia di capacità computazionale sono considerati potenzialmente rischiosi e quindi soggetti a regolamentazioni particolari. Questo livello di controllo è inteso a prevenire scenari in cui un utilizzo non regolamentato di tali tecnologie possa portare a conseguenze dannose su larga scala.
Il nuovo AI Act dell’Ue, infatti, si distingue proprio per la sua attenzione particolare ai modelli di IA più avanzati e potenti, spesso denominati “general-purpose AI” (GPAI). All’interno di questa categoria, sono stati individuati i modelli con capacità ad alto impatto, considerati a rischio sistemico. Questi modelli, che per la loro potenza e versatilità potrebbero avere un impatto significativo in caso di malfunzionamento o utilizzo improprio, sono soggetti a regolamentazioni aggiuntive e più stringenti.
In questo contesto, le nuove regole prevedono che le aziende che sviluppano o utilizzano modelli GPAI debbano rispettare una serie di obblighi specifici, come la creazione di una documentazione tecnica dettagliata, la divulgazione di informazioni rilevanti agli utilizzatori a valle e l’adozione di misure di sicurezza informatica avanzate. Tali requisiti si applicano non solo alle aziende europee, ma anche a quelle statunitensi che intendono operare nel mercato dell’Ue.
Nonostante le stringenti normative, il report di Rand suggerisce che le aziende statunitensi potrebbero trarre comunque dei vantaggi da una maggiore collaborazione con le autorità europee. Ad esempio, il National institute of standards and technology (Nist) negli Stati Uniti potrebbe instaurare una collaborazione con l’Eu AI office per armonizzare gli standard di test e valutazione dei modelli IA. Tale cooperazione non solo faciliterebbe la conformità delle aziende ai requisiti europei, ma potrebbe anche contribuire a stabilire standard globali per la sicurezza e l’affidabilità dell’IA.
In aggiunta, l’AI Act offre la possibilità alle aziende di partecipare alla definizione dei codici di condotta che regoleranno ulteriormente l’uso dell’IA in Europa. Il coinvolgimento delle aziende statunitensi in questo processo potrebbe garantire che i nuovi regolamenti siano pragmatici e che tengano conto delle esigenze del mercato globale.
Dal rapporto Rand, si possono trarre alcune considerazioni. Sicuramente, l’approccio adottato dall’Ue potrebbe avere implicazioni profonde per il futuro della regolamentazione dell’IA a livello globale. Da un lato, l’AI Act potrebbe diventare un modello per altri paesi che cercano di stabilire regole simili, creando un ambiente normativo più uniforme a livello internazionale. Dall’altro, le regole severe potrebbero rappresentare una sfida significativa per le aziende più piccole, che potrebbero non disporre delle risorse necessarie per adeguarsi ai nuovi requisiti.
Nonostante queste sfide, il quadro regolamentare dell’Ue pone le basi per un uso più sicuro e trasparente dell’IA, cercando di prevenire potenziali abusi e garantire che i benefici della tecnologia siano distribuiti equamente. Per le aziende statunitensi, questo significa che dovranno adattarsi rapidamente per rimanere competitive sul mercato europeo, collaborando allo stesso tempo con le autorità per contribuire alla definizione di standard globali condivisi.
Mentre per il mercato europeo, questo determina maggiore protezione dei consumatori e degli utenti finali, poiché l’AI Act richiede che i fornitori di modelli GPAI, specialmente quelli con rischio sistemico, implementino misure di sicurezza cibernetica avanzate e adottino protocolli rigorosi per la gestione dei rischi e la segnalazione degli incidenti. Inoltre, l’AI Act prevede sanzioni severe per il mancato rispetto delle normative, con multe che possono raggiungere il 3% del fatturato globale annuo dell’azienda o 15 milioni di euro, a seconda di quale importo sia maggiore. Questo quadro normativo, quindi, non solo spinge verso una maggiore trasparenza e responsabilità, ma potrebbe anche influenzare le politiche regolatorie in altri Paesi, promuovendo una convergenza internazionale sui criteri di sicurezza e affidabilità dell’IA.