Mentre i legislatori si arrovellano su come creare una regolamentazione tech efficace, OpenAI, Google, Microsoft e Anthropic hanno presentato un piano per muoversi in autonomia. Le aziende hanno annunciato la creazione del Frontier Model Forum, un nuovo hub per promuovere i nuovi strumenti senza rischi e permettere ai governi e alle aziende di fugare i dubbi scambiandosi informazioni
“È fondamentale che le aziende di intelligenza artificiale, nello specifico quelle che lavorano sui modelli più potenti, si allineino su un terreno comune e promuovano pratiche di sicurezza ponderate e adattabili, per garantire che potenti strumenti di IA abbiano il massimo vantaggio possibile”. Quello che potrebbe essere scambiato per un discorso di qualche politico è stato invece pronunciato da Anna Makanju, vicepresidente dei Global Affairs di OpenAI. La sua azienda, insieme ad altri giganti come Google, Microsoft e Anthropic, hanno presentato mercoledì un piano di autoregolamentazione, alla cui guida ci sarebbe proprio l’industria tecnologica. Uno smacco, l’ennesimo, dato alla politica che ancora è arrovellata su come controllare l’intelligenza artificiale senza affondare la ricerca e il progresso.
L’argine, che garantirà la sicurezza dei nuovi e più potenti strumenti di IA, si chiamerà Frontier Model Forum. Tuttavia non sarà la sua unica funzione, visto che dovrebbe diventare anche un centro di scambio tra istituzioni, aziende e società civile per fugare i dubbi sui rischi e sulle conseguenze per la sicurezza. “L’organismo attingerà alle competenze tecniche e operative delle aziende associate a vantaggio dell’intero ecosistema di intelligenza artificiale”, si legge in una nota di lancio. Lo farà attraverso lo sviluppo di una libreria pubblica di soluzioni per promuovere e sponsorizzare i migliori standard possibili per il settore, oltre che alle già citate competenze tecniche.
Quella che è appena nata, dunque, è una vera e propria alleanza, aperta a tutte le aziende e organizzazioni “che soddisfano questi criteri” e che sono “disposte a contribuire all’avanzamento degli sforzi del Forum anche partecipando a iniziative congiunte”. Nel frattempo che venga strutturato “un comitato per guidarne la strategia e le priorità”, gli obiettivi del Forum da qui al prossimo anno saranno incentrati su tre macro aree: identificare le migliori pratiche per l’IA grazie allo scambio di informazioni; promuovere una ricerca sicura; facilitare la connessione tra privato e governi.
“Siamo entusiasti di lavorare insieme ad altre aziende leader, condividendo competenze tecniche per promuovere un’innovazione responsabile”, ha affermato l’omologo di Makanju per Google & Alphabet, Kent Walker. “Le società che creano tecnologia IA – ha aggiunto – hanno la responsabilità di garantire che sia sicura, protetta e che rimanga sotto il controllo umano”. Gli ha fatto eco il Ceo di Anthropic, Dario Amodei. “Il Frontier Model Forum svolgerà un ruolo fondamentale nel coordinamento delle migliori pratiche e nella condivisione della ricerca sulla sicurezza dell’IA di frontiera”.
Viene pertanto ribadita, con forza, la volontà delle aziende di mostrarsi come attori responsabili. L’esigenza nasce dopo che la politica ha ricordato loro, con altrettanto vigore, il ruolo che rivestono all’interno della società. I vari amministratori delegati sono stati vivisezionati – nel senso figurato, ovviamente – dal Congresso americano, mentre l’Europa sta issando paletti sempre più irremovibili per permettere alle piattaforme di operare sul proprio territorio. Eppure, lo sforzo delle Big Tech potrebbe non bastare.
C’è infatti chi si chiede se ci si possa fidare di quanto dicono. Il motivo è chiaro e, se vogliamo, anche logico: chi promuove questi prodotti di IA chiede anche maggiore controllo e sicurezza per la deriva a cui potrebbero portare. Il che, per molti politici statunitensi, è un controsenso. Lo pensa il senatore repubblicano Josh Hawley, convinto di come “stiamo parlando delle stesse persone” che hanno cercato di eludere i controlli, ma lo pensa soprattutto il governatore della Florida nonché candidato alla Casa Bianca, Ron DeSantis, che vede nella Silicon Valley più un nemico che un alleato.
L’idea a cui in molti dicono di voler arrivare – compreso il filantropo Bill Gates – è quella di una grande agenzia che possa regolamentare gli strumenti di IA, sul modello di quella che controlla l’utilizzo dell’atomica. Tuttavia, fin quando non ci sarà una comunione di intenti, ci si dovrà affidare alle varie legislazioni nazionali o, tutt’al più, a quelle comunitarie come nel caso dell’Unione europea. Se anche queste faticano ad arrivare, come sta accadendo, è normale (ma non scontato) che a proporre le regole siano le aziende stesse.