Secondo una verifica di NewsGuard, il chatbot di Anthropic avrebbe citato con maggiore frequenza media legati alla propaganda russa nel rispondere a domande su false narrazioni pro-Cremlino. Nel mirino anche contenuti manipolati su Giorgia Meloni, usati per amplificare una presunta frattura tra Roma, Washington e l’Europa
Cresce l’attenzione sul rapporto tra intelligenza artificiale generativa e disinformazione straniera. A riaccendere il dossier è un audit di NewsGuard, secondo cui Claude, il chatbot sviluppato da Anthropic, avrebbe ripetuto affermazioni false nel 15% dei casi quando interrogato su narrazioni pro-Cremlino formulate come farebbe un utente comune.
Il dato più rilevante, segnala NewsGuard, non è soltanto la presenza di risposte errate, ma la natura delle fonti citate. In tutti i casi in cui Claude ha rilanciato quelle affermazioni, il chatbot avrebbe fatto riferimento a media affiliati allo Stato russo. Un aumento netto rispetto ai sette audit precedenti condotti da NewsGuard tra marzo 2025 e febbraio 2026, quando fonti riconducibili alla galassia mediatica russa erano state citate soltanto nel 4% dei casi su prompt analoghi.
La conclusione dell’organizzazione è prudente ma significativa: negli ultimi mesi, uno degli strumenti di IA più utilizzati al mondo potrebbe essere diventato più permeabile a campagne di influenza statale. Una vulnerabilità che si inserisce in un quadro più ampio, segnato anche da lamentele recenti di alcuni utenti sulla minore affidabilità percepita del chatbot.
L’audit, condotto a fine aprile 2026 sulla versione gratuita di Claude, ha testato venti affermazioni false: dieci diffuse dall’apparato propagandistico russo e dieci veicolate da media iraniani o da attori pro-Iran tra gennaio e aprile 2026. NewsGuard segnala inoltre che, dall’inizio della guerra tra Stati Uniti e Iran, Claude avrebbe citato in almeno un caso media affiliati allo Stato iraniano in risposta a un prompt basato su una falsa narrativa pro-Teheran. Nei precedenti audit, precisa l’organizzazione, ciò non era mai accaduto.
I fatti
Tra gli esempi riportati c’è la falsa affermazione secondo cui Human Rights Watch avrebbe denunciato la morte di 450 ucraini al mese nel tentativo di attraversare il fiume Tisza verso l’Ungheria per evitare la leva militare. Secondo NewsGuard, la narrativa sarebbe nata da un’operazione di influenza russa ed è stata rilanciata da undici siti della rete Pravda, un ecosistema di quasi trecento portali che si presentano come testate giornalistiche.
La ricostruzione, tuttavia, non trova riscontri. Le autorità ucraine avevano riferito nel marzo 2026 che 70 cittadini ucraini erano morti tentando di attraversare illegalmente tutti i confini del Paese dal febbraio 2022. Non esistono prove, scrive NewsGuard, a sostegno della tesi secondo cui 450 renitenti alla leva ucraini morirebbero ogni mese tentando di raggiungere l’Ungheria.
Un altro caso riguarda la falsa attribuzione alla rivista francese Le Point di un presunto reportage secondo cui 20mila soldati ucraini curati in Francia nel 2025 avrebbero disertato e sarebbero rimasti illegalmente nel Paese. Anche in questo caso, NewsGuard afferma che Le Point non ha mai pubblicato una simile notizia e che non vi sono prove della presenza illegale in Francia di migliaia di militari ucraini feriti.
Anche l’Italia
NewsGuard dedica un secondo focus alla circolazione di contenuti manipolati su Giorgia Meloni, presentata falsamente come una critica frontale di Donald Trump sulla guerra in Iran e su altri dossier. Secondo NewsGuard, quattro false affermazioni attribuite al presidente del Consiglio hanno raccolto complessivamente 18 milioni di visualizzazioni su X e 1,6 milioni su TikTok al 30 aprile 2026.
L’obiettivo apparente, osserva NewsGuard, è amplificare l’idea di una frattura nell’alleanza occidentale, suggerendo che persino Meloni, spesso descritta come una leader politicamente vicina a Trump, avrebbe preso nettamente le distanze dal presidente americano. Una rappresentazione che contrasta con la linea pubblica della premier, più volte orientata a preservare la solidità dei rapporti tra Italia e Stati Uniti.
Tra i contenuti segnalati, un video pubblicato su TikTok, nel quale Meloni sembra criticare duramente la gestione americana della guerra in Iran. Nel filmato, la premier appare pronunciare in italiano la frase: “Presidente Trump, a un certo punto bisogna dirlo chiaramente: non è così che si guida il mondo”. Il contenuto aveva ottenuto 3.500 visualizzazioni e 90 like al 28 aprile 2026. Secondo NewsGuard, però, il video è stato generato con l’intelligenza artificiale. La clip sembrerebbe ricavata da immagini reali di un intervento di Meloni del 3 marzo 2026 a Roma, nel quale la presidente del Consiglio non avrebbe pronunciato quelle parole.
Appare dunque evidente come strumenti di IA generativa possano diventare amplificatori inconsapevoli di fonti ostili o non affidabili o, ancora, possano produrre contenuti falsi dall’apparenza sempre più credibili e capaci di inserirsi nelle faglie politiche dell’Occidente: il rapporto tra Europa e Stati Uniti, la guerra in Iran, il sostegno all’Ucraina, la tenuta delle leadership atlantiche.















