Skip to main content

Ecco come Youtube decide quali contenuti eliminare (e perché)

Come tutte le piattaforme, anche Youtube ha dovuto aggiornare le linee guida per contrastare la disinformazione e i contenuti non appropriati su pandemia e campagna vaccinale. Applicando la regola delle quattro “R”

Youtube è una delle tante piattaforme online che ha dovuto aggiornare le proprie direttive con l’arrivo della pandemia da Covid-19 e l’inizio della campagna vaccinale. Infatti, come tutte le social platforms, Youtube ha inserito dei pannelli d’informazione, strumenti che rimandano gli utenti al sito ufficiale dell’Organizzazione Mondiale della Sanità oppure a quello del proprio Ministero della Salute.

I quadri informativi hanno dato uno spazio e una possibilità alle autorità di comunicare velocemente ed efficacemente con l’audience di Youtube, riportando dati e notizie utili in tempo reale. Ma non è tutto. Infatti, questi “box” di notizie, presenti in 30 paesi, hanno creato circa 400 miliardi di impression e sono diventati i quadri informativi più visti in assoluto dalla comunità di Youtube.

Secondo Marco Pancini, Director of Public Policy EMEA di Youtube, Youtube cerca sempre di eliminare i contenuti non appropriati. Per fornire contenuti utili e di qualità, sostiene l’azienda, deve porre come prioritario il tema della responsabilità, e ancor di più durante la pandemia da Covid-19 e la campagna vaccinale. È qui che entra in gioco la regola delle quattro “R”: remove, raise, reduce, reward. Remove, rimuovere i contenuti che non seguono le linee guida ufficiali di Youtube o semplicemente del paese – sì, Youtube è una piattaforma aperta, ma come ha sottolineato Marco Pancini, c’è bisogno di un giusto equilibrio nei contenuti e questo si può ottenere solo con ferme regole di condotta. Raise, promuovere e mettere in evidenza voci autorevoli e di creatori con informazioni pertinenti. Reduce, ridurre la promozioni di informazioni non rilevanti. Reward, premiare i creatori di contenuti e artisti affidabili che promuovono le linee guida della community e aiutano la comunità.

Per quanto concerne la rimozione di video, dal 2018 Youtube ha lanciato un transparency record contenente i dati relativi ai contenuti rimossi. Nell’ultimo periodo, il 95% di video in violazione sono stati eliminati e il 75% di questi sono stati rimossi prima che superassero le 10 visualizzazioni. Come decide quali contenuti eliminare? Attraverso le segnalazioni degli utenti, dei trusted flaggers e delle autorità, oppure tramite le indicazioni degli algoritmi della piattaforma stessa.

Tutte queste regole si applicano anche in merito alle informazioni relative al Covid-19 e alla campagna vaccinale. La regola delle quattro R è ancora più importante in campo medico. Youtube ha deciso di non accettare contenuti anti-vax, video in contrasto con le linee guida delle autorità e degli esperti scientifici, e contenuti di disinformazione relativi alle campagne vaccinali. Certamente, il contesto dei video è fondamentale, specialmente considerato il fatto che si tratta di una piattaforma aperta. Infatti, Pancini ha ribadito che “nel decidere se uno specifico contenuto è contrario alle nostre policy, noi guardiamo anche al contesto. Per cui sono consentite eccezioni se i video in quesitone hanno anche una chiara finalità educativa, documentaristica, scientifica o artistica.” Quindi, non è tutto bianco o nero.

Tutti questi sforzi si inseriscono anche all’interno del quadro normativo delle istituzioni europee rispetto alla disinformazione in merito al Covid-19. Esiste un codice di condotta europeo, nato nel contesto delle elezioni europee, finalizzato a stabilire una serie di linee guida per sostenere un dibattito democratico e robusto sulle social platforms. Questo testo è stato riutilizzato con l’avvento del Covid-19 sottolineando l’importante grado di responsabilità in capo alle piattaforme.

Youtube, come Google, ha aderito al codice e all’attività di disinformation reporting per la Commissione. L’impegno consiste nel riportare i dati a livello europeo sulla disinformazione relativa al Covid-19 in atto sulle proprie piattaforme, a cadenza mensile. Ciò aiuta la Commissione a tenere traccia delle iniziative promosse dalle piattaforme online ma anche analizzare i dati relativi alla disinformazione stessa.

Anche l’Organizzazione Mondiale della Sanità ha aderito alla campagna contro la disinformazione sul Covid-19, inserendo nel proprio sito una sezione apposita che spiega come segnalare un contenuto inappropriato sulle varie piattaforme online.



×

Iscriviti alla newsletter