Skip to main content

Obiettivo zero rischi. Ecco l’iniziativa degli Usa sugli agenti IA

Chatbot

Il National Institute of Standards and Technology ha lanciato AI Agent Standards Initiative per cercare di diffondere fiducia su questi strumenti, raccomandandone il giusto utilizzo. L’obiettivo è promuovere l’ecosistema in modo sicuro e confermare la leadership americana

A inizio gennaio, il National Institute of Standards and Technology (Nist) del Dipartimento del Commercio americano lanciava un appello pubblico per capire quali fossero i migliori approcci per rendere sicuri gli agenti di intelligenza artificiale. Sempre più utilizzati dalle varie aziende, questi strumenti nascondono un alto rischio per la sicurezza nazionale, a iniziare dagli hackeraggi. Non solo. “Se non vengono controllati”, scriveva il Nist, “potrebbero minare la fiducia dei consumatori e frenare l’adozione delle più recenti innovazioni in materia di intelligenza artificiale”. Per questo dava 60 giorni di tempo a società, ricercatori e altri stakeholders per formulare “esempi concreti, buone pratiche, casi di studio e raccomandazioni attuabili basate sulla loro esperienza nello sviluppo e nell’implementazione di sistemi di agenti IA e nell’anticipazione dei rischi correlati”. Nel frattempo, il Center for AI Standards and Innovation (Caisi) del Nist lancia la sua iniziativa. Si chiama AI Agent Standards Initiative e l’obiettivo è nientemeno che diffondere fiducia sulla tecnologia.

Come si legge dall’annuncio, il piano “mira a promuovere l’ecosistema emergente di standard e protocolli di IA guidati dal settore, consolidando al contempo il predominio degli Stati Uniti sulla frontiera tecnologica”. Lo farà in collaborazione con un altro ramo del Nist, l’Information Technology Laboratory (ITL) promuovendo “standard e protocolli tecnici guidati dal settore che creino fiducia pubblica negli agenti di intelligenza artificiale, catalizzino un ecosistema di agenti interoperabile e ne diffondano i benefici a tutti gli americani e in tutto il mondo”.

Tre sono i pilastri lungo cui si muoverà questa iniziativa. Il primo mira a facilitare lo sviluppo di linee guida per gli agenti di IA, rafforzando anche il ruolo di Washington negli organismi internazionale; il secondo promuove lo sviluppo e la salvaguardia dei protocolli open source degli agenti; il terzo punta a rafforzare la ricerca nella sicurezza e dell’identità di questi strumenti, così da arrivare a un’adozione completa e affidabile.

Un aiuto importante arriverà anche dall’esterno. O almeno questo è l’augurio del Nist, che invita tutti gli esperti in materia a farsi avanti e a suggerire le loro proposte. Non soltanto rispondendo all’appello lanciato a inizio gennaio in scadenza il 9 marzo. Ma anche a quello promosso dall’ITL sull’identità e l’autorizzazione degli agenti di IA, che scadrà il prossimo 2 aprile.

Il Caisi non è l’unico ad occuparsi della mitigazione dei rischi. Dentro il Nist ci sono tante altre unità, a cominciare dall’AI Risk Management Framework, che supporta le organizzazioni e le aiuta a fidarsi della tecnologia ad alto impatto. Nelle prossime settimane verranno organizzati convegni e sessioni di ascolto per favorire lo scambio di idee. Con l’obiettivo di rendere sicuro l’intero ecosistema, che confermerebbe allo stesso tempo la leadership americana.


×

Iscriviti alla newsletter