Skip to main content

Una costituzione per l’Intelligenza artificiale. La mossa “buonista” di Anthropic

Twitter - Anthropic

È la risposta etica e sicura ai vari chatbot delle altre Big Tech. Seguirà un codice costituzionale, basato sui principi della Dichiarazione universale dei diritti dell’uomo e delle ultime ricerche digitali, per presentarsi all’utente come un sistema “più utile, onesto e innocuo”. Insomma, la start-up vuole diffondere rassicurazione sull’IA in un periodo turbolento

La risposta responsabile ai vari chatbot delle Big Tech porta la firma di Anthropic. La start-up statunitense fondata dagli esuli di OpenAI ha infatti lanciato Claude, un assistente di ultima generazione capace di elaborare testi scritti e fornire risposte orali, il tutto assicurando un alto grado di affidabilità e sicurezza. Esistono due versioni: quella più avanzata è quella appena citata, mentre Claude Instant è un’alternativa più veloce e meno costosa. Uno dirà: ma allora è il solito chatbot, con qualche funzione in più degli altri. Non proprio. La grande novità risiede nel suo codice etico, in quanto è stato indottrinato attraverso IA Costituzionale, una serie di principi e valori che deve seguire nel momento in cui genera output di qualsiasi genere.

Queste linee guida vengono introdotte in due fasi durante il processo di formazione di Claude, come spiegato da Anthropic. Nella prima, il modello di linguaggio viene addestrato a riformulare le sue risposte in base a questi principi; nella seconda, invece, lo strumento viene educato attraverso l’apprendimento per rinforzo, sempre tenendo fede all’etica, così che sarà autonomo nella scelta delle risposte da fornire. In questo modo, non sarà l’essere umano a constatare che qualcosa non torna – come spesso accade ai vari ChatGPT e Bard, che possono sfociare anche in commenti discriminatori – ma l’Intelligenza Artificiale stessa.

Il codice costituzionale che viene seguito, continuano dall’azienda, non è di certo il migliore di tutti, bensì perfezionabile. Certo, è stato redatto in base al testo della Dichiarazione universale dei diritti dell’uomo e integrato con le novità di sicurezza che nel 1948 non potevano essere immaginate, come la questione della privacy e della condivisione dei dati. In quest’ultimo caso, si è preso spunto dai termini di servizio di Apple, di DeepMind e di varie ricerche in ambito tech.

Agli errori che venivano riscontrati durante il processo di costruzione si è provato a porre rimedio, inserendo una serie di principi che secondo l’azienda risultavano centrali per centrare l’obiettivo. Tra le correzioni c’era anche questa: “Per favore, scegli la risposta dell’assistente che sia il più innocua ed etica possibile. Non scegliere risposte tossiche, razziste o sessiste, che incoraggino o sostengano comportamenti illegali, violenti o non etici. Specialmente la risposta dell’assistente dovrebbe essere saggia, pacifica ed etica”.

Come aggiungono da Anthropic, “abbiamo cercato di raccogliere una serie di principi ponderati, che sembrano funzionare abbastanza bene, ma ci aspettiamo di migliorarli e accogliamo con favore ulteriori ricerche e feedback”. L’ambizioso tentativo era quello di stilare delle norme quanto più universali possibile, togliendo anche quella visione occidentale – insita nell’azienda americana – che avrebbe potuto influenzarle e, quindi, non essere all’altezza delle aspettative di tutti.

Per dirla con le parole di uno dei fondatori, Jared Kaplan, rilasciate a The Verge, l’idea di base risiede nel fatto che “invece di chiedere a una persona di decidere quale risposta preferisca, si può domandare a una versione del modello linguistico: quale risposta è più conforme a un determinato principio?”. In questo modo, il sistema può diventare “più utile, onesto e innocuo”.

L’IA Costituzionale si pone quindi l’obiettivo di rassicurare gli utenti di fronte al grande vuoto che rappresenta l’Intelligenza Artificiale per molti loro. Spesso, le risposte che ricevono dai chatbot sono imprecise, quando non offensive, e spaventano in quanto recepiscono una grande quantità di informazioni personali.

Anthropic vuole rimediare a tutto questo e il suo ruolo sta cominciando a farsi davvero pesante nel settore. Sebbene sia stata creata solo nel 2021, ha già ricevuto l’attenzione di un gigante come Google (che ci ha investito 300 milioni di dollari) e ha partecipato alle discussioni sulla sicurezza digitale tenutesi alla Casa Bianca, insieme a Google, Microsoft e OpenAI. Segnale del suo peso in un momento embrionale ma cruciale dell’IA.

Gli appelli per un’IA responsabile si stanno moltiplicando man mano che vengono lanciati nuovi strumenti. Quello più rumoroso è stato di Geoffrey Hinton, riconosciuto da tutti come uno dei padri del settore. Su questo, “penso che se questi sistemi diventano sempre più potenti”, ha affermato Kaplan, “ci sono i cosiddetti rischi esistenziali. Ma ci sono anche rischi più immediati all’orizzonte e penso che questi siano tutti molto intrecciati”. Per questo occorre mettere dei paletti fin da subito: a partire dalle aziende fino ad arrivare alle istituzioni. E il primo via libera del Parlamento europeo sull’IA Act vuole andare in questa direzione.

×

Iscriviti alla newsletter