Skip to main content

Come regolamentare un’IA “aperta”. L’approccio di Meta tra Usa e Italia

L’azienda di Menlo Park ha scelto un approccio open source, in cui c’è interazione tra tutti gli stakeholders, dal governo fino alla società civile. Soprattutto, c’è bisogno di valutare i rischi che l’IA generativa può provocare, e non denigrare a prescindere le novità digitali. Il commento di Nick Clegg e l’audizione alla Camera di Naila Murray e Angelo Mazzetti

INTELLIGENZA ARTIFICIALE OPEN SOURCE: LA PROMESSA DI NICK CLEGG

Trasparenza e responsabilità. Meta non ha dubbi su ciò che deve accompagnare l’introduzione di ogni strumento di intelligenza artificiale. Dopo un periodo di apparente sonnolenza, la società di Mark Zuckerberg sta cercando di riconquistare terreno rispetto alle rivali. E ci prova attraverso un approccio differente, basato sì su un modus operandi equo e rispettoso, ma anche aperto (open source, dichiara la società). “Come ogni tecnologia”, ha scritto sul Financial Times il capo degli affari globali dell’azienda, Nick Clegg, “l’intelligenza artificiale sarà utilizzata sia per scopi buoni che cattivi”, così come “sia da persone buone che cattive”. La denigrazione a priori di tutto ciò che digitale, quindi, avrà come unico risultato quello di frenare lo sviluppo, invece che incentivarlo.

Per fugare i dubbi, Clegg ha previsto diversi passaggi. Primo: rendere trasparenti i sistemi. Facebook e Instragram hanno rilasciato ventidue schede di sistema con cui gli utenti possono conoscere, senza difficoltà o senza dover per forza essere degli esperti, in che modo i contenuti vengono classificati e suggeriti. Secondo: maggiore collaborazione tra governo, industria, mondo accademico e società civile. In questo senso, ha fatto rumore l’esclusione di Meta dal gruppo delle grandi aziende convocate dalla vice presidente Kamala Harris alla Casa Bianca per parlare di regolamentazione, sebbene “stiamo partecipando al Framework for Collective Action on Synthetic Media, un passo importante per garantire che vengano stabiliti guardrail attorno ai contenuti di IA”, ha scritto Clegg. Terzo: sottoporre i sistemi di intelligenza artificiale a stress test prima che vengano rilasciati sul mercata, così come Meta sta già facendo per Llama, il suo large language model. Quarto: la condivisione di quello che le aziende rilasciano attraverso documenti accademici, annunci pubblici, discussioni aperte che riportino benefici e rischi degli strumenti e, se necessario, mettendo a disposizione la tecnologia utilizzata.

Come spiega in chiusura di articolo Clegg, il concetto di open source “non è altruismo […] ma il miglior antidoto alle paure che circondano l’IA”.

L’AUDIZIONE A ROMA DI NAILA MURRAY E ANGELO MAZZETTI

Il metodo è stato esposto anche di fronte ai nostri regolatori. Martedì mattina alla Camera dei Deputati, in Aula della Commissione Esteri, il Comitato di vigilanza sull’attività di Documentazione presieduto dalla vicepresidente della Camera Anna Ascani, ha ascoltato ciò che avevano da dire (non solo) in tema di regolamentazione Naila Murray e Angelo Mazzetti, rispettivamente Head of FAIR (Fundamental AI Research) e Head of Public Policy per Italia e Grecia di Meta.

Ciò di cui abbiamo bisogno sono “macchine che prevedono, ragionano, pianificano, agiscano e interagiscono” ha affermato Murray. In breve, che riescano “capire i comportamenti” tenendo sempre a mente “valori e culture di ciascuno”. Per l’azienda di Menlo Park, l’obiettivo a lungo termine “rimane il Metaverso”, ha aggiunto. “Siamo ancora convinti che servano cinque o dieci anni” prima di realizzare questo nuovo universi dove “l’IA Generativa sarà alla base dei contenuti, ad esempio quelli in 3D. Le persone possono creare qualsiasi mondo in cui desiderano interagire”. Compito dell’azienda sarà quello di “gestire la velocità e la diversità di questi cambiamenti”.

L’obiettivo è di “collaborare con l’essere umano”, diventare un supporto invece che un ostacolo. Per riuscirci, bisognerebbe passare a un “modello egocentrico”, ha spiegato Murray. Non è un qualcosa di negativo come la parola potrebbe intendere, bensì “una percezione visiva in prima persona e non attraverso terzi”. Insomma, l’intento è mettere l’utente al centro e cercare di intercettare i suoi bisogni. “L’IA Generativa”, ha concluso, “deve essere sviluppata in modo sicuro, trasparenza e responsabile”. D’altronde, questa “ha portato molti progressi ma anche molti rischi” e la sua società sta lavorando “sui nuovi progetti tenendo a mente questi pilastri. Proteggere la privacy e la sicurezza sono i nostri asset rispetto al controllo, alla raccolta e all’uso dei dati. Siamo a un punto di svolta, la tecnologia sia aperta, con più ricercatori che devono testarne liberamente i modelli e si basi sui valori sociali”, ha concluso.

Successivamente, è stato Angelo Mazzetti a ricalcare il concetto, rispondendo alle domande che sono arrivate dopo l’intervento della sua collega. In merito all’AI Act europeo, l’Head of Public Policy ha affermato che Meta “è favorevole allo sviluppo delle tecnologie in modo sicuro e trasparente ma equilibrato nel mitigare i rischi e la necessaria flessibilità che si deve riconoscere nel quadro normativo per sviluppare le nuove tecnologie”.

La richiesta è dunque quella di entrare nel caso specifico, evidenziando le eventuali criticità senza generalizzare. Un approccio sulla “regolamentazione digitale in sé” sarebbe infatti errato. Meglio incentrarsi sui rischi, dunque. Una possibilità per ridurli risiede nell’etichettatura dei contenuti. “Non so se il labelling rappresenta la risposta migliore”, ha proseguito, “siamo all’inizio di un dibattito e così come è stato per la disinformazione, gli sforzi anche tecnologici si possono modificare col tempo. Ora abbiamo 90 fact checker in dieci lingue diverse, bisogna fare in modo che gli utenti abbiano più contesto possibile per produrre la loro idea”.

Da ultimo, ma non di certo per importanza, la questione dei dati. Per Mazzetti, la legge europea che li tutela (Gdpr) va salvaguardata ma bisogna sempre ragionare anche in termini più larghi, oltre confine. “Il digitale si basa sullo scambio di dati. I nostri servizi e tutta l’economia hanno bisogno di dati transfrontalieri”, ha concluso incentivando una maggiore collaborazione tra Europa e Stati Uniti.

×

Iscriviti alla newsletter