Diego Ciulli, head of government affairs and public policy, spiega le strategia di “Big G” in vista del voto del 25 ottobre. “Abbiamo un insieme di sistemi per contrastare la disinformazione frutto del lavoro quotidiano”

Disinformazione e ingerenze come mezzi della guerra ibrida “sono impiegati dai sistemi autoritari per condizionare le democrazie liberali ed i suoi processi elettorali e decisori e per manipolare la stessa informazione attraverso la propaganda e la diffusione di una determinata retorica e narrativa antioccidentale e costituiscono da tempo un problema che è stato segnalato ed è monitorato e che ora, dopo l’invasione della Russia in Ucraina, ha assunto dimensioni ancora più preoccupanti”. È quanto scrive il Copasir nella relazione sull’attività svolta nel periodo febbraio-agosto del 2022. La fine anticipata della legislatura, si legge nel documento, non ha permesso di includere l’indagine disinformazione. Non sono state svolte, per esempio, le audizioni già programmate con i principali provider e social network.

Formiche.net ha deciso di coinvolgere le piattaforme social in un dibattito in vista del voto del 25 settembre.

Per Google le elezioni rappresentano un esempio di “breaking news”. L’attualità corre veloce, la velocità è tutto, anche nella risposta agli eventi. Ma qualche aggiustamento agli algoritmi è sufficiente per contrastare la disinformazione. Merito del lavoro fatto a monte. A spiegarlo a Formiche.net è Diego Ciulli, head of government affairs and public policy di Google Italy.

“Abbiamo un insieme di sistemi molto solidi per contrastare la disinformazione che non sono disegnati ad hoc per elezioni ma sono il frutto del lavoro quotidiano”, dice. “Un motore di ricerca secondo noi deve mostrare all’utente come primi risultati quelli autorevoli. Per questo, educhiamo gli algoritmi a valutare l’autorevolezza delle fonti”, prosegue. Tra Google e YouTube, piattaforma di proprietà della stessa multinazionale, c’è una differenza: chi ospita i contenuti. Google, che non ne è proprietaria, li ordina in base all’autorevolezza. YouTube, che li ospita, li può anche rimuovere nel caso in cui non rispettino le politiche della piattaforma. In pratica un contenuto su Google può scivolare in fondo alle ricerche ma senza mai essere rimosso (a meno di casi particolare previsti dalla legge come il diritto all’oblio), cosa che invece può accadere su YouTube. E su YouTube vengono rimossi contenuti pericolosi – dall’istigazione all’odio alla disinformazione sul Covid-19.

“Il modo migliore per contrastare la disinformazione è sostenere la buona informazione”, commenta Ciulli spiegando che né Google né YouTube soffrono “problemi enormi di disinformazione. L’ultimo dato che abbiamo è di intorno allo 0,25%. Per fare un esempio, sono più significativi i fenomeni di istigazione all’odio, contro i quali ci muoviamo anche sfruttando l’intelligenza artificiale”.

Condividi tramite