Alcune piattaforme digitali come Meta e YouTube dicono di volere modificare le norme per proteggere gli utenti ed evitare che contenuti potenzialmente utili per i processi e le indagini sulle violazioni dei diritti umani spariscano senza essere archiviati. Ma la Bbc ha dimostrato che gli algoritmi cancellano automaticamente molti contenuti, non riuscendo a distinguere un crimine di guerra da un video “solamente” violento
Crimini di guerra e gravi violazioni ai diritti umani cancellati dal web. Questa è stata la scoperta della Bbc. L’eliminazione sarebbe avvenuta grazie all’utilizzo dell’intelligenza artificiale, che rimuove – specialmente dai social network – video e immagini dei reati che invece potrebbero contribuire a indagini e processi.
Un articolo della Bbc sostiene che alcune piattaforme digitali come Meta e YouTube dicono di volere modificare le norme per proteggere gli utenti ed evitare che questi contenuti potenzialmente utili spariscano senza essere archiviati. Tuttavia, Alan Rusbridger, membro del consiglio di sorveglianza di Meta, spiega che nel settore c’è stata un’eccessiva cautela nella moderazione di questi contenuti.
“Le piattaforme affermano di avere esenzioni per il materiale grafico quando è nell’interesse pubblico – si legge nel testo – ma quando la Bbc ha tentato di caricare filmati che documentavano attacchi ai civili in Ucraina, sono stati rapidamente cancellati”.
Le atrocità della guerra vengono documentate sui social. Questo materiale può essere utilizzato come prova per aiutare a perseguire i crimini di guerra. “Ma la Bbc ha parlato con persone colpite da conflitti violenti che hanno visto le principali società di social media rimuovere questi contenuti”.
L’intelligenza artificiale, infatti, riesce a rimuovere i contenuti dannosi e illegali su larga scala. Ma quando si tratta di moderare le immagini violente delle guerre gli algoritmi non hanno la capacità di percepire la sfumatura per identificare le violazioni dei diritti umani. Esiste, dunque, l’urgente necessità che le società di social media impediscano che questo tipo di informazioni svanisca dalla rete.
La Bbc ha anche parlato con Imad, proprietario di una farmacia ad Aleppo, in Siria. La sua attività è stata colpita da una bomba del governo siriano nel 2013. L’uomo ricorda come l’esplosione ha riempito la stanza di polvere e fumo. Nei dintorni c’erano mani, gambe e cadaveri coperti di sangue. Le troupe televisive locali hanno immortalato queste scene. Il filmato è stato pubblicato su YouTube e Facebook, ma è stato successivamente rimosso.
Per YouTube e Meta, in base alle loro normative per i filmati di guerra espliciti, i contenuti che normalmente verrebbero rimossi possono essere mantenuti online con la visualizzazione limitata agli adulti. “Ma il nostro esperimento suggerisce il contrario”, aggiunge la Bbc.
C’è però chi si dedica a frenare questo fenomeno di rimozione sbagliata. Mnemonic, un’organizzazione per i diritti umani con sede a Berlino, è intervenuta per archiviare i filmati prima che scomparissero. “Mnemonic ha sviluppato uno strumento per scaricare e salvare automaticamente le prove delle violazioni dei diritti umani, prima in Siria e ora in Yemen, Sudan e Ucraina. Hanno salvato più di 700.000 immagini di zone di guerra prima che venissero rimosse dai social media, inclusi tre video che mostrano l’attacco vicino alla farmacia di Imad”.
Van Schaak, ambasciatrice americana per la giustizia penale globale, sostiene che bisogna “creare un meccanismo in base al quale tali informazioni possano essere conservate per potenziali futuri esercizi di responsabilità. Le piattaforme dei social media dovrebbero essere disposte a prendere accordi con i meccanismi di responsabilità in tutto il mondo”.