Skip to main content

Meta e non solo. Perché l’Ue sta sbagliando strada nella regolazione dell’IA

Di Riccardo Piselli

Mentre negli Stati Uniti, il presidente Trump ha adottato un executive order dal titolo già ampiamente significativo, Removing Barriers to American Leadership in Artificial Intelligence, pronto a sostenere le proprie imprese nella race globale alla IA, da questa parte dell’Oceano ci nascondiamo dietro al velo di finissime tecniche regolatorie, senza che nessuno abbia il coraggio di gridare: “il re è Nudo!”. L’analisi di Riccardo Piselli, prof. di Proprietà Intellettuale alla Luiss Guido Carli

È di questi giorni il rifiuto di Meta di aderire al Codice di buone pratiche europeo sui modelli di intelligenza artificiale per finalità generali (GPAI). La comunicazione, affidata a Joel Kaplan, Chief global affairs officer della società, non ha lasciato spazio a interpretazioni: “Questo Codice introduce una serie di incertezze giuridiche per gli sviluppatori di modelli, nonché misure che vanno ben oltre l’ambito di applicazione dell’AI Act”. Il verdetto è inequivocabile: l’Unione Europea sta sbagliando strada nella regolazione dell’IA.

Il codice di buone pratiche si presenta come uno strumento per contribuire alla corretta applicazione del Regolamento IA da parte dei fornitori di modelli Gpai. Più nello specifico, contiene le linee guida per garantire la conformità di tali operatori agli artt. 53-55 del Regolamento. L’adesione, volontaria, non è di per sé prova di tale conformità. Tutto ciò porta a ritenere il Codice uno strumento di soft regulation, e, basandosi su un atto d’iniziativa del regolato, in un certo senso anche di co-regulation. Quanto al contenuto, esso si compone di tre capitoli, uno sulla trasparenza, uno sulla protezione del diritto d’autore e uno sulla sicurezza contro il rischio sistemico.

Più in particolare, nel primo, viene fornito un dettagliato modello di documentazione che il fornitore s’impegna a predisporre e, successivamente, a rendere consultabile attraverso il proprio sito o altro canale. Nel secondo capitolo, è previsto che il fornitore si conformi a una serie di obblighi molto penetranti: non eludere le misure tecnologiche di protezione del diritto d’autore e non svolgere scansioni su siti che illecitamente diffondono materiali protetti; adottare standard tecnici condivisi per l’identificazione dei contenuti riservati; e, da ultimo, a mettere in campo ogni altra misura per mitigare il rischio che i modelli generino output in violazione dei diritti di proprietà intellettuale.

Infine, nel capitolo sulla sicurezza, viene predisposto un complesso e analitico framework di gestione del rischio sistemico, che le parti s’impegnano ciascuna a adottare prima di immettere sul mercato il loro prodotto. Nel complesso, l’adozione del Codice s’inserisce in quell’ormai diffusa tendenza a regolamentare avvalendosi di strumenti alternativi alla norma e all’imposizione di obblighi di condotta. I nuovi strumenti ora passano, da un lato, per il rafforzamento della trasparenza e dall’altro, per una responsabilizzazione del “regolato”, a cui viene chiesto di stabilire quelle misure e cautele che ritiene idonee a ridurre il rischio di un accadimento negativo.

Del tutto ovvie sono le ragioni della resistenza dei soggetti regolati. La trasparenza finisce infatti per collidere con le istanze di riservatezza delle imprese, i cui segreti (si pensi proprio ai modelli e ai dati di addestramento), hanno evidentemente valore economico e competitivo proprio in quanto segreti. Mentre la responsabilizzazione del soggetto regolato finisce per far pesare su questi la carenza normativa. In questo modo, il Parlamento, dietro alla narrativa della co-regolazione e della soft-regulation, abdica al suo potere di legiferare per norme (rule) e sembra voler consegnare lo scettro all’impresa.

Ma non si tratta di abdicazione o laissez-faire, tutt’altro. Il legislatore fissa un principio di massima da tutti più o meno condiviso, attribuisce un compito aperto all’impresa, pronto a monitorarne i risultati e sanzionare le condotte ove necessario. Il regolato viene in questo modo prefigurato ad hoc come un bersaglio, per schermare l’istituzione dal peso politico della scelta laddove qualcosa dovesse andare storto. Quest’ultimo, a causa della sovraesposizione di un ruolo che non gli appartiene, rifiuta quel falso scettro e si allontana, a ragione, dalle nostre giurisdizioni.

Dietro a tale tecnica, non v’è allora nessuna maggiore efficienza, ma l’incapacità, o meglio la mancanza di volontà di imporre, assumendosi la responsabilità politica di favorire o contrastare un dato comportamento, operando il migliore bilanciamento possibile tra interessi. Il vero è che ogni innovazione tecnologica reca con sé un costo sociale e politico. La contropartita di quel costo è il progresso tecnologico, scientifico e conoscitivo atteso. Concettualmente errato è pensare che quel costo possano sostenerlo le imprese, alle quali compete già il rischio della remunerazione del capitale investito. Mentre intellettualmente ingenuo è pensare di poter agguantare quota parte di quel progresso scansando i connessi rischi sociali.

Forse si dovrebbe riflettere sul perché le più grandi invenzioni della storia siano state prodotte in tempo di guerra, come riadattamenti a uso civile di tecnologie militari, quando l’innovazione non poteva permettersi di sostenere il lusso del garantismo. E forse, prendendo a esempio una ben nota innovazione tecnologica, si dovrebbe anche riflettere sul fatto che, prima che si avesse il primo vero Codice della strada, l’automobile era già da oltre vent’anni sulle strade. Così, mentre negli Stati Uniti, il presidente Trump ha adottato un executive order dal titolo già ampiamente significativo – Removing Barriers to American Leadership in Artificial Intelligence –pronto a sostenere le proprie imprese nella race globale alla IA, da questa parte dell’Oceano ci nascondiamo dietro al velo di finissime tecniche regolatorie, senza che nessuno abbia il coraggio di gridare: “il re è Nudo!”


×

Iscriviti alla newsletter