È impossibile mappare la disinformazione online senza una visione complessiva dei dati, che devono essere armonizzati e interpretati. A più di un anno da quando le piattaforme hanno aderito al Codice di condotta Ue e amplificato gli sforzi per la trasparenza, l’ultimo rapporto del Carnegie illustra lo stato dell’arte e spiega come tappare i buchi

A giugno 2022, sull’onda della risposta all’invasione russa dell’Ucraina, l’Unione europea si è finalmente decisa (dopo anni di lungaggini) a implementare un sistema per combattere la propaganda e le falsità nella sfera digitale. È nato così il Codice di condotta rafforzato sulla disinformazione, presentato dalla Commissione europea e adottato da tutti i grandi motori di ricerca e le principali piattaforme social – salvo X, ex Twitter, che Elon Musk ha tirato fuori dall’accordo-quadro nel maggio scorso.

Oggi è volontario, ma nel prossimo futuro questo codice andrà a complementare altre leggi (come il Digital Services Act) con cui l’Ue sta disegnando l’ecosistema digitale del futuro. Nel mentre, agisce come un riferimento per le aziende. Dando seguito alle pressioni di ricercatori e attori della società civile, queste ultime hanno pubblicato due serie di rapporti semestrali (a febbraio e settembre di quest’anno) in cui tentano di restituire una fotografia di come prolifera la disinformazione sui loro servizi e quando funzionino le contromisure che adottano.

La sola esistenza di una pratica del genere è un successo per la trasparenza. Tuttavia, come rileva il Carnegie Endowment for International Peace, c’è ancora molta strada da fare a livello operativo: il codice richiede di standardizzare la rendicontazione, in modo da facilitare l’analisi e le comparazioni, ma questi rapporti iniziali sono stati criticati per l’incompletezza dei dati (che rende impossibile il confronto tra le piattaforme) e per la limitata utilità delle informazioni offerte.

“Ciò che i ricercatori e i responsabili politici vogliono sapere è se gli interventi sulle piattaforme hanno portato a un cambiamento nel modo in cui gli utenti si confrontano con la disinformazione. Per questo motivo, oltre alla misurazione delle azioni e delle impressioni, è necessario misurare l’impatto. In che modo un determinato intervento intendeva provocare un cambiamento nella cognizione o nel comportamento? L’intervento è riuscito a produrre tale cambiamento?”.

Le autrici del rapporto Carnegie, Samantha Lai e Kamya Yadav, sottolineano che diverse piattaforme hanno condotto misurazioni d’impatto concrete, che potrebbero essere utilizzate per capire quanto siano efficaci i diversi interventi nell’affrontare la disinformazione. Per esempio, Google e Microsoft hanno utilizzato dati interni sui tassi di clic e sui costi stimati delle impressioni per calcolare i potenziali ricavi persi dalle pagine e dai domini demonetizzati. Dal canto suo, TikTok ha riportato i tassi di cancellazione delle azioni da parte degli utenti dopo aver visto un’etichetta “contenuto non verificato”, mentre Meta ha evidenziato la percentuale di utenti che non hanno cliccato sul contenuto originale dopo aver visto delle etichette di fact-checking.

Questi sviluppi sono “positivi e benvenuti” ma rappresentano solo una minoranza delle segnalazioni, spiega il rapporto: sei degli otto rapporti delle piattaforme contenevano misurazioni d’impatto, ma queste costituivano solo il 13% di tutte le misure, con cifre simili tra la prima e la seconda tornata di rapporti. E questo si risolve con una valutazione interna sulle pratiche aziendali e modifiche a livello di presentazione dei risultati.

Da parte della società civile, le piattaforme dovranno sottoporsi a ispezioni per verificare la loro conformità con il Dsa, e revisori esperti potrebbero lavorare con le aziende per adattare e standardizzare la raccolta dei dati. Questa è l’altra grande magagna sollevata dalle ricercatrici: la difformità dei dati osservati moltiplica lo sforzo di chi deve interpretarli, e le piattaforme dovrebbero facilitare la conduzione di analisi quantitative rilasciando i dati in formati leggibili dalla macchina (come il csv).

Però c’è un’altra criticità, che si rileva nella netta mancanza di impegno e capacità dei ricercatori, che “è indicativa di un problema strutturale più ampio: l’attuale modello di ricerca è rotto”. La maggior parte delle sovvenzioni viene erogata su base progettuale, incentivando i ricercatori a stringere il campo e riutilizzare le infrastrutture ingegneristiche – che possono costare anche milioni di dollari tra archiviazione, protezione ed elaborazione dei dati. Dunque serve “un organismo multistakeholder su larga scala” che possa “aiutare a centralizzare le risorse e a colmare le lacune nei finanziamenti, negli strumenti e nella creazione di conoscenze”, ma anche incrociare le ricerche esistenti, condurre e mantenere meta-studi e mettere in contatto finanziatori e coloro che lavorano alla creazione di un ambiente informativo sicuro.

Condividi tramite