C’è bisogno di un approccio condiviso da parte di Europa e Stati Uniti. E il requisito indispensabile potrebbe essere partire da forme di autoregolamentazione responsabile. L’analisi di Gaetano Pellicano
Innovazione, percezione dei rischi e richiesta di regolamentazione formano una triade indissolubile quando le trasformazioni appaiono radicali e inevitabili. L’eccitazione per nuovi servizi, maggiore efficacia e maggiore tempo libero che l’intelligenza artificiale (AI) promette a piene mani, lasciano il campo rapidamente a incertezza, scetticismo e preoccupazione. Possiamo avvantaggiarcene, ma a quale prezzo? Quando la paura prende il sopravvento è al Leviatano che puntano le élite politiche e sociali. Oggi tutto questo è vero soprattutto in Europa. Allo Stato è richiesto di intervenire, raccogliere risorse, indirizzarle alla riduzione dei rischi, salvarci dal caos. Frenare, vincolare, incanalare, vietare, parole d’ordine che ridanno morale alle truppe e ai cittadini, finalmente orgogliosi dei propri condottieri.
Così è successo con l’AI Act, prima normativa generale sull’AI, che la Commissione europea ha proposto al Parlamento europeo il 21 aprile 2021 e su cui il 9 dicembre scorso è stato raggiunto un accordo tra Parlamento, Commissione e Consiglio europeo. Un insieme complesso di norme che classificano i rischi, fissano requisiti e obblighi per i fornitori, vietano pratiche illecite, istituiscono un sistema di notifiche e raccolta informazioni e riconoscono alla stessa Commissione e agli Stati nazionali il potere di adottare normative di dettaglio. Dall’approvazione finale saranno necessari due anni per l’adozione delle norme e dei requisiti previsti e altro tempo per il consolidamento di un sistema di governance basato su uffici ad hoc creati dalla Commissione europea e dagli Stati membri. Una macchina complessa che da Bruxelles si articolerà propaggini nazionali non prima del 2026.
Approccio più cauto quello adottato da Regno Unito e, soprattutto, Stati Uniti, che considerano l’autoregolamentazione dei giganti digitali il punto iniziale di un sistema di governance complessiva. L’Executive Order on Safe, Secure, and Trustworthy Artificial Intelligence, emanato dal presidente Joe Biden il 30 ottobre scorso, definisce l’ambito dell’intervento prioritario del governo, limitandolo alla prevenzione dei rischi relativi alle infrastrutture critiche, alla cybersecurity e a quelli derivanti da un uso improprio di elementi chimici, biologici, radiologici e nucleari. La presidenza federale, in particolare l’Office of Management and Budget, e il dipartimento del Commercio hanno un ruolo prioritario nell’implementazione della strategia nazionale, insieme al dipartimento di Homeland Security, la Funzione pubblica e il dipartimento di Stato per quanto attiene l’AI diplomacy. Delle attività di programmazione e definizione di standard affidate alle diverse agenzie ben il 94 percento va completato entro ottobre 2024. Nell’arco di meno di un anno il governo americano avrà predisposto, quindi, il suo sistema di promozione e gestione dei sistemi di intelligenza artificiale, ben in anticipo rispetto alla tempistica di implementazione dell’AI Act dell’Unione europea. Lo farà distinguendo in maniera pragmatica gli interventi che necessitano risultati immediati e i campi complessi che richiedono uno sforzo continuativo nel medio periodo e attuando da subito interventi per attrarre e fidelizzare esperti di intelligenza artificiale nella sfera pubblica.
Per analizzare i due approcci serve fare un passo indietro. Quali sono i poteri effettivi del Leviatano, quali gli obiettivi realistici, quale l’investimento necessario per raggiungerli? Bisogna chiedersi, inoltre, se i regolatori hanno o avranno gli strumenti giusti in tempi adeguati, rispetto al ritmo forsennato con cui i campioni dell’intelligenza artificiale stanno sfornando nuove piattaforme e nuovi servizi. Le autorità pubbliche arriveranno in tempo rispetto a rischi che si sono già palesati o emergeranno a breve? Si stanno dotando delle armi giuste? Possiedono le informazioni necessarie per identificare i rischi con un approccio top-down?
Gli esperti ricordano che ogni forma di regolamentazione deve prioritariamente identificare un ambito di riferimento. Può, inoltre, prevedere obblighi di comunicazione alle autorità da parte delle aziende in merito ai sistemi e ai servizi di propria pertinenza e, eventualmente, obblighi di registrazione. A maggio scorso Sam Altman, amministratore delegato di OpenAI, si è spinto fino a richiedere al Congresso americano (in una nota scritta) l’introduzione di un sistema autorizzativo (licensing) per l’intelligenza artificiale. La proposta ha provocato un dibattito tra addetti ai lavori, molti dei quali convinti che l’obiettivo finale sia limitare la competizione da parte di start up e nuovi concorrenti. Di sicuro un regime autorizzativo richiederebbe l’adozione di standard e la creazione di un’agenzia centrale, modificando gli assetti istituzionali.
La regolamentazione può definire anche in campo di applicazione: a tutti o solo a chi fa un uso commerciale dell’intelligenza artificiale, a chi produce i sistemi digitali o a chi li utilizza per produrre servizi. Identifica una o più agenzie statali competenti per l’adozione dei requisiti e la loro implementazione. Può prevedere gli standard di accuratezza dei dati utilizzati per fare il training dei sistemi di intelligenza artificiale. Più accurati sono i dati, minori sono i rischi di imperfezione o di pregiudizi discriminatori. Senza dimenticare che i risultanti sorprendenti ottenuti sino a ora sono in larga misura derivano dall’utilizzo indiscriminato di grandi quantità di dati, più o meno accurati, disponibili sul web. Le norme possono stabilire le responsabilità di chi produce i sistemi di AI e di chi li distribuisce e introdurre sistemi di auditing implementati da autorità statali e, eventualmente, da certificatori privati indipendenti. Definiscono implicitamente o esplicitamente una gerarchia di obiettivi, talvolta contrastanti, e un loro bilanciamento, o li demandano a un’autorità designata. Per esempio, rispetto della privacy nell’elaborazione dei dati può determinare esiti discriminatori per gruppi e minoranze. Puntare sulla spiegabilità degli esiti prodotti dall’intelligenza artificiale ne limita l’efficacia e la rapidità.
Ulteriori ricadute dell’utilizzo dell’intelligenza artificiale riguardano il rispetto dei dati coperti dal copyright e la definizione del concetto di fair use, vale a dire l’uso limitato e lecito di materiali coperti dal diritto d’autore. La recente iniziativa del New York Times di chiamare in giudizio OpenAI per l’utilizzo illecito dei propri archivi finalizzato al training dell’AI potrebbe portare alla fissazione giurisprudenziale o transattiva di nuovi limiti all’utilizzo dei testi coperti da copyright. Anche in questo caso la soluzione può venire da una decisione imposta dall’autorità pubblica o da un accordo tra le parti che possa aprire le porte all’autoregolamentazione condivisa tra aziende aventi interessi contrapposti. Un’analisi efficace della posta in gioco per editori e programmatori di intelligenza artificiale è stata pubblicata a ottobre da Colombia Journalism Review: An AI engine scans a book. Is that copyright infringement or fair use?
A luglio scorso Nathaniel C. Fick, Ambassador-at-Large for Cyberspace and Digital Policy, e Seth Center, Deputy Envoy for Critical and Emerging Technology, notavano che i casi di autoregolamentazione volontaria presentano due vantaggi: “non inibiscono la capacità di innovare in questo importante settore tecnologico” e “volontario è veloce”. Concludevano: si tratta di “un primo passo verso una struttura di governance solida, dinamica e flessibile. Non sono gli step finali. Il nostro ruolo all’interno del Dipartimento di Stato degli Stati Uniti è quello di multilateralizzare questi impegni”.
L’iniziativa sull’intelligenza artificiale della presidenza italiana del G7 potrebbe essere un ulteriore passo fondamentale nell’adozione di un approccio condiviso da parte di Europa e Stati Uniti. Il requisito indispensabile potrebbe essere partire da forme di autoregolamentazione responsabile e su questa base adottare schemi normativi flessibili che accompagnino il dinamismo dell’innovazione digitale da cui dipende il benessere di tutti nel futuro. Più che adottare norme restrittive e non testate ai foundation model, meglio incoraggiare l’autoregolamentazione e la pubblicazione di informazioni in merito al funzionamento, le capacità e i limiti dei sistemi. Più che limitare i modelli agire sui rischi derivanti dal loro utilizzo nei diversi settori. Un parziale cambiamento di rotta rispetto al passato che fa ben sperare.
Le opinioni espresse in questo articolo dall’autore sono personali e non necessariamente quelle del governo degli Stati Uniti