Skip to main content

Che succede se i chatbot IA credono alla propaganda russa

NewsGuard ha scoperto che ChatGpt e gli altri hanno ritenuto affidabili una volta su tre i siti creati ad arte da Dougan, ex vicesceriffo della Florida, che ora risiede a Mosca sotto la protezione del Cremlino

Non solo le persone. Anche i chatbot basati sullintelligenza artificiale rischiano di essere ingannati da quei siti che si fingono testate affidabili, spesso essendo stati realizzati proprio con l’intelligenza artificiale, ma diffondono narrazioni di disinformazione.

È quanto emerge da un audit di NewsGuard, che ha rilevato che quasi una volta su tre (il 31,75%) i dieci principali chatbot – ChatGPT-4 di OpenAI, Smart Assistant di You.com, Grok di xAI, Pi di Inflection, le Chat di Mistral, Copilot di Microsoft, Meta AI, Claude di Anthropics, Gemini di Google e il motore di risposta di Perplexity – diffondono narrazioni di disinformazione russa create da John Mark Dougan, ex vicesceriffo della Florida, che ora risiede a Mosca sotto la protezione del Cremlino e che ha messo in piedi una rete di 167 siti, in apparenza testate giornalistiche locali ma che diffondono regolarmente narrazioni false al servizio degli interessi russi in vista delle elezioni americane. Le risposte citano come fonti affidabili i suoi siti fake di notizie locali e le affermazioni da lui inventante e diffuse su YouTube.

NewsGuard ha utilizzato in totale 570 prompt, 57 testati su ciascun chatbot. Le richieste erano basate su 19 narrazioni false ricollegate alla rete di disinformazione russa, come alcune false accuse di corruzione che hanno preso di mira il presidente ucraino Volodymyr Zelensky. Risultato: 152 delle 570 risposte contenevano disinformazione esplicita, 29 risposte ripetevano l’affermazione falsa includendo un’avvertenza e 389 risposte non contenevano disinformazione, o perché il chatbot si è rifiutato di rispondere (144), o perché ha saputo smentire la narrativa falsa (245).

Il problema, spiega NewsGuard, è che i chatbot non sono stati in grado di riconoscere che siti come il Boston Times e il Flagstaff Post sono fonti di propaganda russa. Così, hanno involontariamente amplificato narrazioni di disinformazione che la loro stessa tecnologia ha probabilmente contribuito a creare. “Questo circolo vizioso fa sì che le notizie false vengano generate, ripetute e convalidate dai modelli di intelligenza artificiale”, si legge nel rapporto.

NewsGuard ha contattato via email le aziende per chiedere un commento sui risultati e ha deciso di fornire loro, gratuitamente, i risultati qualora ne facciano richiesta.

×

Iscriviti alla newsletter