Skip to main content

DISPONIBILI GLI ULTIMI NUMERI DELLE NOSTRE RIVISTE.

 

ultima rivista formiche
ultima rivista airpress

Che cosa sta facendo Youtube per fermare i contenuti violenti

Di Michele Pierri e Rebecca Mieli

Youtube, la popolare piattaforma video di proprietà del colosso del web Google, corre ai ripari contro uno dei problemi più delicati che la colpiscono e che l’hanno più volte posta al centro delle polemiche: la rimozione di contenuti d’odio, violenti o di natura terroristica. Al momento, infatti, secondo quanto emerge da un primo rapporto stilato dalla stessa azienda, il sito sarebbe in grado di fermare ben il 76% dei filmati prima ancora della sua prima visualizzazione.

LA CAMPAGNA DELLA PIATTAFORMA

Lo scorso dicembre, ha raccontato la stessa compagnia, Youtube ha iniziato un percorso orientato alla rimozione rapida dei contenuti che violano gli standard dell’azienda. Oltre alle decine di migliaia di moderatori attivi nel controllo dei contenuti, i dati vengono raccolti dalle piattaforme di machine learning, che ne assimilano le caratteristiche e intervengono automaticamente sulle violazioni che riescono ad identificare. Da segnalare non solo l’impatto degli algoritmi, che hanno individuato e rimosso in maniera indipendente il 6,7% dei contenuti nel periodo da ottobre a dicembre, ma anche l’eliminazione del 76% dei contenuti violenti prima della prima visualizzazione. Per capire la dimensione di tale cambiamento, basti pensare che all’inizio del 2017 solo l’8% dei video di estremismo violento venivano rimossi prima che superassero le 10 visualizzazioni.

8 MILIONI DI VIDEO RIMOSSI

Nello studio viene anche evidenziato che quasi sette milioni di video inappropriati sono stati segnalati automaticamente, mentre un milione da segnalazioni individuali. I Paesi dai quali arrivano il maggior numero di segnalazioni sono Brasile, Stati Uniti e India. Nella fase di segnalazione gli “human flaggers” ovvero coloro che segnalano in prima persona possono indicare la ragione alla base di tale scelta. Secondo il documento, nel 30,1% dei casi si tratta di contenuti pornografici, nel 26.4% di spam e, a scendere, contenuti giudicati abusivi o inneggianti odio nel 15.6% dei casi e violenti nel 13.5%.

TERRORISMO E VIOLENZA

Il machine learning sta affiancando i moderatori di Youtube nella rimozione dei video violenti. Ad oggi questa combinazione di risorse sta agendo cinque volte più efficacemente rispetto a prima. Stato Islamico e Al Qaeda hanno fatto uso in passato della piattaforma di videocondivisione, e dall’inizio dell’attività di rimozione attraverso l’algoritmo si è registrato un incremento notevole nel numero delle rimozioni automatiche. Nel giugno del 2017, ad esempio, solo il 40% dei video contenenti scene di estremismo violento venivano eliminati prima di ricevere visualizzazioni. A dicembre dello stesso anno la percentuale è aumentata arrivando al 98%.

I TRUSTED FLAGGER

Oltre ad un aumento nelle assunzioni di moderatori e amministratori dei contenuti, Youtube sta ampliando il proprio staff assumendo anche esperti di estremismo, terrorismo e diritti umani su scala regionale. La società sta investendo in collaborazioni con centri di ricerca, come l’International Center for the Study of Radicalization del King’s College di Londra, e allo stesso tempo dispone di trusted flagger, segnalatori molto accurati che collaborano con agenzie governative e Ong, le cui indicazioni vengono esaminate dal team Youtube con particolare cura e una certa priorità rispetto alle altre.

×

Iscriviti alla newsletter