L’azienda è convinta che il punto di svolta sia vicino, più di quanto credessimo. Questi modelli assumeranno un ruolo più ampio rispetto a oggi, aumentando i rischi per le aziende. Per cui è necessario agire fin da subito e colmare le lacune legate all’automazione
Un anno. È il tempo previsto da Antrhopic prima che i dipendenti virtuali realizzati con l’intelligenza artificiale entreranno in funzione, avendo la possibilità di navigare sulle reti aziendali. Una prospettiva attesa da molti e che ne preoccupa altrettanti, in quanto rappresenterebbe un punto di svolta notevole. Come ogni novità, si porta dietro entusiasmi e preoccupazioni. A esternare ad Axios le paure che circolano attorno ai dipendenti di IA è stato Jason Clinton, a capo della sicurezza informatica di Antrhopic. Nonostante si alzerebbe il livello di automazione, in quanto questi agenti avrebbero una loro memoria e svolgerebbero un ruolo molto più ampio rispetto a quello di adesso, restano una serie di questioni che vanno prima affrontate.
“Ci sono così tanti problemi dal punto di vista della sicurezza che dobbiamo risolvere, e ancora non lo abbiamo fatto”, ha spiegato Clinton. Basti pensare che, come un dipendente umano qualunque, gli verrebbero forniti un account e delle password aziendali. Dati sensibili, che devono essere protetti. Non solo. Nel momento in cui le funzioni aumentano, c’è da chiarire anche chi risponde delle sue azioni di fronte a un errore. Un hackeraggio, ad esempio, o qualsiasi altra violazione del protocollo aziendale. “Nel vecchio mondo, è un reato punibile”, ha osservato Clinton. “Ma in questo nuovo mondo, chi è responsabile di un agente che è stato in servizio per un paio di settimane ed è arrivato a quel punto?”.
Da parte sua, Antrhopic sta provando a risolvere la questione seguendo due strade. La prima è di assicurarsi la necessaria protezione, affinché i modelli di IA siano in grado di difendersi dalle minacce esterne. La seconda è di monitorare le lacune nella sicurezza così da ridurle. La tendenza sembra andare proprio in questa direzione. Okta, ad esempio, ha rilasciato a febbraio una piattaforma per proteggere i dipendenti di IA e osservare a quali dati abbiano accesso, riscontrando eventuali anomalie.
Secondo un recente studio, però, ci sarebbero altri problemi a monte legati ai lavoratori di intelligenza artificiale. Vals AI – startup che valuta in modo indipendente questi nuovi strumenti – ha infatti riscontrato che non sono in grado di svolgere dei calcoli finanziari di base. I modelli di OpenAI, Anthropic, x.AI, Meta e Google hanno offerto risposte che per meno del 50% erano accurate. “Il livello di sciocchezze che vediamo in giro è assurdo”, ha affermato l’ad Rayan Krishnan. “Si stanno facendo molte affermazioni audaci sull’intelligenza artificiale, ma non sono vere se vengono auto-dichiarate. Non abbiamo nulla che possa assomigliare alle revisione paritaria, ai revisioni di terze parti o qualsiasi regolamentazione”. Oltre ad anticipare i problemi di sicurezza, bisogna anche capire come e dove utilizzare al meglio gli agenti IA.