Mentre Mark Zuckerberg promette un’inchiesta interna a Facebook per fare luce sulle accuse di “passare al setaccio” le notizie che propone sulla sua piattaforma, discriminando alcune fonti (quelle di media più conservatori) rispetto ad altre, il New York Times svela che cosa succede nei maggiori siti social che, come Facebook, hanno una redazione e una linea editoriale e non si affidano solo ad algoritmi.
IL TAGLIO EDITORIALE
Negli ultimi anni quasi tutte le grandi piattaforme social hanno assunto persone che selezionano e, in qualche modo, “intervengono” sul materiale che ricevono, tanto dagli utenti quanto dai media. Si tratta di redazioni piccole, rispetto a quelle dei grandi gruppi, o se paragonate a quelle di sui dispongono piattaforme come Facebook, ma si tratta comunque di redattori o “curatori” e le loro scelte editoriali si impongono su un pubblico vasto. Di qui lo scandalo: come e perché si decide di pubblicare un contenuto e di oscurarne un altro? “I gruppi editoriali tradizionali sono stati sottoposti al pubblico scrutinio negli anni passati per capire quanto la loro informazione fosse obiettiva; ora tocca ai social network”, osserva Kjerstin Thorson, docente alla Annenberg School for Communication and Journalism della University of Southern California. Persino il presidente del Commerce Committee del Senato americano, John Thune, ha chiesto a Facebook di spiegare meglio il sistema che propone gli articoli “trend” sulla sua piattaforma.
LE REDAZIONI DI TWITTER E SNAPCHAT
Facebook non ha per ora rivelato quante persone al suo interno (e all’interno di Instagram, che è di proprietà di Facebook) facciano il lavoro di redattori. Di altri siti si sa qualcosa di più: Snapchat dice di avere circa 75 persone che producono contenuti, mettendo insieme e commentando video e foto di eventi live. Twitter ha uno staff di una decina di redattori negli Stati Uniti, e circa 25 a livello globale, per raccogliere e descrivere i post che trattano argomenti di rilievo. Vine, il servizio video di proprietà di Twitter, impiega 5-10 persone per mettere in evidenza i video a cui l’azienda reputa necessario dare risalto.
“L’occhio e l’orecchio umano possono rilevare un trend culturare che la macchina non coglie”, secondo Ankur Thakkar, che guida il team editoriale di Vine.
In alcuni casi, lo staff editoriale dei social lavora insieme ai giornalisti dei gruppi dei media tradizionali che si occupano di comunicare tramite quel sito. Per esempio, Peter Hamby, ex reporter di politica della Cnn, ora è a capo di un gruppo di sei giornalisti interno a Snapchat.
L’ILLUSIONE DELL’ALGORITMO IMPARZIALE
Il meccanismo non è una novità, ma quel che è nuovo è che i social hanno centinaia di milioni di utenti e una notizia che è proposta da Facebook, Twitter, Snapchat o Vine attira milioni di visite, risposte, condivisioni, follower e così via. Twitter, che ha pubblicato le linee editoriali del suo servizio Moments (non tutti i siti social lo fanno), chiarisce che il suo team editoriale non assume posizione in caso di argomenti controversi e che i curatori selezionano i tweet in modo da rappresentare tutti i punti di vista sullo stesso argomento.
Facebook, dopo la diffusione su Gizmodo della notizia sulla presenza di uno staff editoriale che lavora sui Trending Topics, ha chiarito che “non permette la soppressione delle opinioni politiche”.
Ciononostante, come nota Michael Pachter, analista di Wedbush Securities, è chiaro che si è aperto un importante dibattito su come i social network siano diventati “gatekeepers for news and entertainment”: sono loro che ci introducono nelle notizie e negli eventi che contano. E in base a quale criterio? La vicenda del team editoriale di Facebook apre la porta ad altre domande sull’intero software che la piattaforma di Zuckerberg usa per connettere le persone e mostrare loro potenziali amici o argomenti di interesse.
Per il New York Times, gli algoritmi usati dalle web companies non sono affatto “neutrali”: “usano dati, calcoli e formule matematiche e generano una marea di distorsioni”. Un’analisi condotta ad agosto 2014 ha scoperto che l’algoritmo del newsfeed di Facebook lasciava in ombra le notizie sulle proteste seguite all’uccisione di Michael Brown da parte di un agente di Polizia a Ferguson. Questo accadeva perché la notizia non rientrava nei criteri di ciò che l’algoritmo riconosce come argomento capace di attrarre i “Mi Piace” – solo dopo che la rete ha cominciato a parlare dell’episodio di Ferguson e molte persone hanno espresso la loro rabbia, la notizia ha ricevuto spazio.
QUELLO CHE IL PUBBLICO VUOLE
Vox riporta un recente studio di uno statistico, Seth Flaxman, della University of Oxford, che ha analizzato l’attività di web browsing di 50.000 americani, che regolarmente leggono le notizie online, confermando quanto molti studiosi della comunicazione del web già sapevano: le persone cercano e consumano notizie attinenti ai propri gusti e conformi alle proprie opinioni. E gli algoritmi di Google, Facebook & co. sono fatti apposta per portare alle persone le notizie e i contenuti che contengono le opinioni con cui si trovano in accordo, senza assecondare il pluralismo e il senso critico. Non scandalizziamoci troppo per il team editoriale di Facebook, conclude Vox; in fondo, il redattore meno obiettivo di Facebook non è il suo giornalista ma il suo utente, cioè le persone comuni che postano le proprie opinioni e le pubblicizzano con gli amici, fornendo la propria visione anche su argomenti di attualità, politica, società o cultura, senza che questa sia sostenuta da prove o sia affiancata da voci dissonanti.