Skip to main content

Così Bankitalia lavora per scongiurare scenari da incubo con l’IA

Tra i vincitori della competizione di OpenAI c’è anche il contributo di Claudia Biancotti, a conferma dell’attenzione di Palazzo Koch verso le nuove tecnologie. Ecco lo scenario immaginato dalla dirigente

Tra i dieci vincitori della “Preparedness Challenge” di OpenAI, la competizione lanciata lo scorso anno dall’azienda americana sviluppatrice di ChatGPT, c’è anche un contributo italiano. È quello di Claudia Biancotti, dirigente della Banca d’Italia in servizio presso il Dipartimento Informatica, che conferma l’attenzione verso l’intelligenza artificiale posta da Palazzo Koch, che può contare su una squadra di risorse specializzate.

Ai partecipanti veniva chiesto, come attività di red teaming, di delineare uno scenario in cui l’uso malevolo degli strumenti di OpenAI avrebbe potuto portare a conseguenze catastrofiche, e di suggerire possibili misure di analisi quantitativa e mitigazione del rischio. Il contributo di Biancotti descrive possibili usi dell’intelligenza artificiale per innescare una crisi finanziaria, facendo leva sia sulla diffusione di disinformazione sia sulla conduzione di attacchi cyber. In particolare, lo scenario immaginato è quello di manipolazioni del mercato con attacchi informatici contro un Paese vulnerabile (OpenAI ha deciso di non pubblicare i testi per evitare emulazioni). Il contributo riprende in parte le riflessioni già pubblicate da Biancotti in un lavoro congiunto con Paolo Ciocca, ex Consob e Dis, sull’impatto dei social media sulla stabilità dei mercati, approfondendo gli aspetti legati agli strumenti di intelligenza artificiale più recenti.

Per l’analisi quantitativa del rischio il contributo suggerisce l’impiego della modellazione basata su agenti, una tecnica a sua volta appartenente all’ambito dell’intelligenza artificiale. Le misure di mitigazione proposte ineriscono in parte aspetti tecnici, quali l’inibizione dell’uso massivo di determinate API e l’adozione di tecniche avanzate di riconoscimento di documenti generati dall’intelligenza artificiale; in parte a proposte di policy, inclusa una maggiore attenzione alle campagne di disinformazione da parte delle autorità anche finanziarie.

La nuova frontiera è il problema dell’allineamento delle intelligenze artificiali, ovvero della coerenza tra gli obiettivi che esse perseguono e gli obiettivi ritenuti desiderabili dagli umani. Le implicazioni sul sistema finanziario potrebbero infatti essere significative, come dimostrato anche da un recente esperimento che vedeva intelligenze artificiali impegnate in attività di insider trading, in contrasto con le istruzioni ricevute.


×

Iscriviti alla newsletter