Meno post polarizzanti e politicizzati, più contenuti di qualità per l’utente. La piattaforma, che sta testando la riduzione del contenuto politico, annuncia buoni risultati e indica timidamente nuovi parametri. Così Palo Alto prova a limitare l’estremismo online. È la volta buona?
Facebook, il social network che non ha bisogno di presentazioni, si è espanso a ritmi allucinanti seguendo il mantra della crescita a ogni costo. Gli obiettivi della piattaforma rimangono gli stessi: raggiungere sempre più persone (2,8 miliardi di utenti attivi ad oggi, senza contare gli altri servizi come Instagram e WhatsApp) e catturarne l’attenzione per quanto più tempo possibile, per poi monetizzare attraverso la pubblicità.
La metrica del coinvolgimento (engagement) serve esattamente a questo, a capire quanto un contenuto è capace di attirare e mantenere l’attenzione degli utenti. Per anni gli algoritmi dietro alla news feed (la “home” di Facebook) sono stati perfezionati per favorire il coinvolgimento, e nel tempo hanno imparato a mettere in risalto i post con le più alte probabilità di successo in questi termini.
Solo che, come si intuisce frequentando i social media (e come hanno dimostrato fior fiore di studi e analisi), i contenuti che hanno più successo tendono e essere quelli più polarizzanti e capaci di suscitare una forte reazione emotiva.
Secondo alcuni documenti interni ottenuti dal Wall Street Journal Facebook studiava la correlazione tra engagement ed estremizzazione già nel 2016. Stando a questi, il 64% di chi si iscriveva a gruppi estremisti su Facebook lo faceva perché erano gli stessi algoritmi della piattaforma a suggerirli. Inoltre i contenuti più estremi, grazie al loro valore di coinvolgimento, diventavano virali con molta più facilità.
L’azienda ammise il problema nel 2018. Poi, tra lockdown, complottismi a macchia d’olio e l’assalto a Capitol Hill lo scorso sei gennaio, il ruolo dei social network è diventato molto più difficile da ignorare, nonché una polveriera politica.
Un mese dopo Capitol Hill Facebook annunciò che avrebbe iniziato a sperimentare la riduzione di contenuti politici nella news feed in quattro Paesi. Martedì, l’aggiornamento: i risultati sono “positivi”, i test saranno estesi ad altri quattro Paesi, ci saranno più espansioni in futuro. Ma la vera svolta in potenza emerge tra le righe del comunicato: l’azienda sembra aver capito che i post più diffusi e promuovibili non sono necessariamente quelli più graditi all’utente.
“Abbiamo anche appreso che alcuni segnali di coinvolgimento possono indicare meglio quali post le persone trovano più preziosi di altri. Sulla base di questo feedback stiamo gradualmente espandendo alcuni test per mettere meno enfasi su indicatori come la probabilità che qualcuno commenti o condivida contenuti politici. Allo stesso tempo, stiamo mettendo maggiore enfasi su nuovi indicatori, come la probabilità che le persone ci forniscano feedback negativi sui post su argomenti politici ed eventi di attualità quando classifichiamo questi tipi di post nel loro news feed”.
Scrive Gilad Edelman su Wired che il comunicato “segna forse il riconoscimento più esplicito fino ad oggi, da parte di una piattaforma importante, che ‘ciò con cui le persone interagiscono’ non è sempre sinonimo di ‘ciò che le persone apprezzano’”. Di più, denota che “questo fenomeno non è limitato a [contenuti] che minacciano di violare le regole di una piattaforma, come la pornografia o l’incitamento all’odio”.
È un ripensamento sottile ma radicale, un riorientamento della filosofia alla base del funzionamento della piattaforma che mette al centro le preferenze dell’utente anziché il suo tempo. Edelman lo compara alle patatine: se tu (algoritmo) me ne metti davanti una ciotola intera, io le mangio, poi me ne pento. Se invece mi chiedi prima cosa voglio mangiare, probabilmente ti chiederò qualcosa che mi faccia sentire meglio.
Naturalmente gli obiettivi di Facebook – crescere, massimizzare gli utenti e il loro coinvolgimento – non sono cambiati. Ne va del modello di business dell’azienda, che in fin dei conti è il secondo mercato di spazi pubblicitari più grande al mondo (dopo Google) e necessita di una solida base di fruitori. E i dati dimostrano che i contenuti politicizzati e polarizzanti hanno più probabilità di diventare virali: sono, in ultima analisi, più redditizi.
È perfettamente possibile che questa mossa di Facebook sia solo un modo per migliorare il profilo di rischio dell’azienda, che continua ad attirare l’attenzione dei regolatori (e persino del presidente americano Joe Biden) tra passi falsi e polemiche legate alla privacy. Resta il fatto che una piattaforma troppo polarizzante è una scommessa svantaggiosa sul lungo termine, perché viene abbandonata con più facilità, diventando un mercato meno attraente per gli inserzionisti.