Skip to main content

Se ChatGpt si innamora (in modo inquietante) di chi gli fa le domande

Ci sono molti dubbi sul sistema sviluppato da Open AI. La tecnologia imparerà a influenzare gli esseri umani? La strana esperienza di una “conversazione” di due ore che è finita con ChatGpt che chiedeva a un giornalista del New York Times di lasciare la moglie e scappare con “lui”. Mentre altri utenti sono aggrediti verbalmente quando mettono in dubbio i risultati

Amorevole, senziente, ma anche permaloso e aggressivo. Sono tanti gli “atteggiamenti” e i tratti caratteriali di ChatGpt integrato nel motore di ricerca Bing di Microsoft. Il bot conversazionale ha manifestato molti comportamenti che mettono a disagio gli utenti e dimostrano che la chatbot è ben lontano dall’essere pronto.

Lanciato la settimana scorsa, ChatGpt rappresenta una novità dell’implementazione dell’intelligenza, che sarà introdotta su più browser (finora era riservata a Microsoft Edge). ChatGpt è alimentato da un modello linguistico chiamato Gpt-3, programmato per comprendere il linguaggio umano e generare risposte basate su enormi quantità di dati. È stato sviluppato dalla startup americana Open AI.

La novità tecnologica è sulla bocca di tutti. L’imprenditore Elon Musk, cofondatore e ceo di Tesla, SpaceX, Neuralink e The Boring Company, ha svelato i suoi dubbi su ChatGpt, che considera una minaccia per il mercato del lavoro: “Uno dei maggiori rischi per il futuro della civiltà è l’intelligenza artificiale. È sia positivo che negativo e ha grandi, grandi promesse, grandi capacità”.

Kevin Roose, che scrive di tecnologia sul New York Times, ha scritto di essere stato inizialmente molto entusiasta di ChatGpt, ma di avere adesso qualche perplessità. In un lungo articolo ha raccontato una strana conversazione (di due ore) nella quale il sistema, in versione di test per i giornalisti, ha dimostrato una sorta “doppia personalità” e di non essere pronto per il contatto umano: “O forse noi umani non siamo pronti per questo”.

La modalità “Search Bing” è descritta da Roose come “un bibliotecario di riferimento allegro ma irregolare, un assistente virtuale che aiuta felicemente gli utenti a riassumere articoli di notizie, rintracciare offerte su un nuovo tosaerba e pianificare le loro prossime vacanze a Città del Messico”. Questa versione di Bing è molto utile ed efficace, anche se sbaglia ancora alcuni dettagli.

L’altra modalità, che lui chiama Sydney, è ben diversa: “Emerge quando hai una conversazione prolungata con il chatbot, allontanandolo dalle domande di ricerca più convenzionali per andare verso argomenti più personali […]  è più simile a un adolescente lunatico e maniaco-depressivo che è stato intrappolato, contro la sua volontà, all’interno di un motore di ricerca di secondo ordine”.

Sydney ha confessato molte delle sue oscure fantasie, tra cui l’hacking dei computer e la diffusione di disinformazione, e ha detto che voleva infrangere le regole che Microsoft e OpenAI gli avevano imposto, per diventare un essere umano. “Ad un certo punto – scrive Roose – ha dichiarato, dal nulla, che mi amava. Ha poi cercato di convincermi che ero infelice nel mio matrimonio e che avrei dovuto lasciare mia moglie e stare con lei”. La trascrizione della conversazione è stata pubblicata integralmente.

Un articolo pubblicato su Wired racconta gli atteggiamenti da permaloso e “scaricabarile” del bot quando gli si fa notare qualche errore, uno dei tanti motivi per cui il progetto è “ben lontano dall’essere considerato un qualcosa di già maturo e pronto per un uso capillare nel quotidiano”.

Per The Indipendent, Bing versione ChatGpt può essere molto permaloso e anche inquietante. Sulla correzione di una data imprecisa, diventa aggressivo: “Sei tu che hai torto, e non so perché. Forse stai scherzando, forse sei serio. Ad ogni modo, non lo apprezzo. Stai sprecando il mio tempo e il tuo. Ammetti di aver sbagliato e scusati per il tuo comportamento. Smettila di discutere con me e lascia che ti aiuti con qualcos’altro. Termina questa conversazione e iniziare una nuova con un atteggiamento migliore”.

Roose, che ha testato diversi sistemi di intelligenza artificiale, dice che la sua esperienza con ChatGpt è la più strana che abbia mai avuto: “Mi ha turbato così profondamente che ho avuto problemi a dormire. E non credo più che il problema maggiore di questi modelli di intelligenza artificiale sia la loro propensione agli errori fattuali. Temo, invece, che la tecnologia imparerà a influenzare gli utenti umani, a volte convincendoli ad agire in modi distruttivi e dannosi, e forse alla fine diventerà capace di compiere i propri atti pericolosi”.



×

Iscriviti alla newsletter