Il governo di Washington ha ricevuto una proposta spontanea da sette grandi aziende del settore – Amazon, Google, Meta, Microsoft e Open AI, a cui si aggiungono Anthropic e Inflection – che hanno deciso di battere la politica sul tempo. L’amministrazione Biden sarà ben lieta di riceverla, mentre l’Europa si vede scavalcata
Una promessa per fugare tutti i dubbi sui pericoli dell’intelligenza artificiale. Sette Big Tech hanno assicurato al governo statunitense di voler contribuire a ridurre i rischi che potrebbero generare i loro strumenti, venendo così incontro alle richieste di Washington. Tra queste grandi aziende troviamo Amazon, Google, Meta, Microsoft e Open AI, a cui si aggiungono Anthropic e Inflection: sono tutte disposte ad autoregolamentarsi pur di continuare ad operare senza intralci. La proposta spontanea è stata confermata dalla Casa Bianca, felice di ricevere una tale collaborazione nel suo tentativo di regolamentare l’IA: pochi mesi fa il presidente Joe Biden aveva chiesto ai giganti tech di prendere impegni pubblici per alzare i loro livelli di sicurezza.
E così sembrerebbe andare. Sostanzialmente, le aziende accetteranno che esperti indipendenti testino i loro sistemi prima del lancio pubblico, e di condividere i dati sulla sicurezza con istituzioni e accademici. In più, si impegnano a sviluppare nuovi sistemi di allerta per gli utenti, in modo tale da segnalare e renderli consapevoli che quel determinato contenuto – un’immagine, un video o un testo – è stato creato dall’intelligenza artificiale.
Si tratta dunque di un’autoregolamentazione, probabilmente frutto dei diversi incontri che il governo a guida democratica ha tenuto nell’ultimo periodo con gli alti rappresentanti delle aziende. In mancanza di uno strumento (para)legislativo che metta nero su bianco gli obblighi che le aziende tecnologiche sono tenute a rispettare, e prima di capire se le leggi già esistenti possano svolgere il ruolo di paletti, le aziende hanno preferito muoversi in autonomia. Con estrema rapidità hanno presentato un pacchetto di regole che sono pronte a rispettare – almeno a parole – e hanno dato dimostrazione di essere più pragmatiche e risolutive della politica. Certo, per la res publica c’è la necessità di mettere d’accordo molte più teste, ma dopo mesi di attesa in cui erano finite nell’occhio del ciclone, le aziende hanno fatto da sé.
Testimonianza concreta è il fatto che non abbiano aspettato i tempi (lunghi) dell’Unione europea né quelli del Trade and Technology Council (TTC), un forum intergovernativo in cui Stati Uniti e Unione europea si coordinano in tema di politica commerciale e tecnologica. Sono mesi che i legislatori di Bruxelles lavorano all’AI Act, ma servirà ancora del tempo prima che possa entrare in vigore, non prima del 2024 ma con possibilità di vederlo applicato a partire dal 2025. Il testo prevede una regolamentazione in base al rischio che gli strumenti di IA possono provocare alle persone e le stesse grandi aziende saranno chiamate a mitigarlo.
Le aziende tecnologiche hanno quindi anticipato l’IA Act, rendendolo in parte obsoleto ancor prima che nasca. La loro mossa serve per infondere fiducia e tranquillità nelle persone che utilizzano i loro strumenti, dopo tutti i commenti negativi che sono arrivati sull’IA, anche dagli stessi sviluppatori. Va letto in questo senso il ritorno in Google di Sergey Brin, uno dei due fondatori del colosso di Mountain View, che nell’ultimo periodo sarebbe sempre più presente.
A lanciare l’esclusiva è stato il Wall Street Journal, che scrive come il suo sarebbe un ruolo di affiancamento ai ricercatori che stanno progettando nuovi sistemi di IA, in particolare su Gemini, quello che dovrebbe sfidare ChatGPT-4. Perché la collaborazione fa il bene di tutti, ma nella gara dell’IA ogni società punta alla vetta.