Skip to main content

Nick Clegg e l’algoritmo di Facebook. Bisogna essere in due per ballare il tango

Di Nick Clegg

Nick Clegg, vice presidente Affari globali di Facebook, ha pubblicato un lungo articolo in cui annuncia una rivoluzione nella gestione dei contenuti: gli utenti avranno maggiore controllo. Allo stesso tempo, spiega che l’algoritmo, creato e modificato da esseri umani, non è un nemico, e che spesso non è responsabile per i contenuti indesiderati, violenti o polarizzanti cui siamo esposti (anzi, cerca di limitarli). Qui trovate la traduzione integrale in italiano

In un recente articolo pubblicato sull’Atlantic, Adrienne LaFrance ha paragonato Facebook a una Doomsday Machine: “un dispositivo costruito con il solo scopo di distruggere tutta la vita umana.” I realizzatori del documentario di Netflix The Social Dilemma hanno immaginato una sala di controllo digitale in cui degli ingegneri premono pulsanti e girano manopole per manipolare un adolescente attraverso il suo smartphone. Nel suo libro Il capitalismo della sorveglianza, la psicologa sociale di Harvard Shoshana Zuboff dipinge un mondo in cui le aziende tecnologiche hanno costruito un gigantesco sistema di sorveglianza che consente loro di manipolare gli atteggiamenti, le opinioni e i desideri delle persone.

In ciascuna di queste raffigurazioni distopiche, le persone vengono ritratte come vittime impotenti, private del loro libero arbitrio; gli esseri umani sono diventati giocattoli in mano a sistemi di algoritmi in grado di manipolarli. Ma è davvero così? Le macchine hanno davvero preso il sopravvento?

Si presume che i social media alimentino la polarizzazione, sfruttino le debolezze e le insicurezze umane e creino casse di risonanza in cui ognuno trova la propria fetta di realtà, erodendo la sfera pubblica e la comprensione dei fatti comuni. Peggio ancora, si crede che tutto questo venga fatto intenzionalmente in una ricerca incessante del profitto.

Al cuore di molte di queste preoccupazioni c’è il presupposto che nella relazione tra esseri umani e sistemi automatizzati complessi non siamo noi ad avere il controllo. Che l’agire umano si sia sgretolato. O, come dichiarato da Joanna Stern a gennaio sul Wall Street Journal, che abbiamo “perso il controllo di ciò che vediamo, leggiamo — e addirittura pensiamo — a vantaggio delle più grandi società di social media”.

I difensori dei social media hanno spesso ignorato o sminuito queste critiche, nella speranza che il progresso della tecnologia le spazzasse via o considerandole semplicemente sbagliate. Si tratta di un errore: la tecnologia deve stare al servizio della società, e non viceversa. Quando ci si trova davanti a sistemi oscuri gestiti da ricche multinazionali, non sorprende che molti credano che la mancanza di trasparenza serva solo per assecondare gli interessi delle élite della tecnologia e non degli utenti. Nel lungo termine, le persone si sentiranno a proprio agio con questi sistemi basati su degli algoritmi solo se avranno maggiore visibilità sul loro funzionamento e saranno quindi in grado di esercitare un controllo più informato sugli stessi. Aziende come Facebook devono essere chiare su come funziona la relazione tra gli utenti e i loro principali algoritmi. E devono dare agli utenti maggior controllo su di essi.      

Alcuni critici sembrano pensare che i social media siano un errore temporaneo nel corso dell’evoluzione della tecnologia e che quando ce ne renderemo tutti conto, Facebook e le altre piattaforme crolleranno e torneremo tutti alle modalità di comunicazione precedenti. Si tratta di una lettura profondamente errata della situazione — tanto inaccurata quanto il titolo apparso sul Daily Mail nel dicembre 2000 secondo cui internet “potrebbe essere solo una moda passeggera”. Anche se Facebook smettesse di esistere, i social media non verrebbero — e non possono essere — “disinventati”. C’è un profondo impulso umano a utilizzare internet per le proprie connessioni sociali.

Servizi personalizzati basati sui dati, come i social media, hanno fornito alle persone i mezzi per esprimersi e per comunicare con gli altri in una scala che non ha precedenti. Inoltre, hanno dato a milioni di piccole imprese in tutto il mondo strumenti che in precedenza erano a disposizione solo delle più grandi società. La pubblicità digitale personalizzata non solo permette a miliardi di persone di utilizzare i social media gratuitamente, ma è anche più utile ai consumatori rispetto alla pubblicità non mirata e di scarsa pertinenza. Ritornare a un finto passato dalle tinte color seppia — prima della pubblicità personalizzata, prima della classificazione algoritmica dei contenuti, prima che le libertà date da internet sfidassero i poteri esistenti — significherebbe rinunciare a così tanti vantaggi per la società.

Ma ciò non significa che le preoccupazioni su come interagiscono gli esseri umani e i sistemi basati su algoritmi debbano essere ignorate. Esistono chiaramente problemi che devono essere risolti e domande a cui deve essere data una risposta. Internet ha bisogno di nuove regole, progettate e approvate da istituzioni elette democraticamente, e le aziende tecnologiche devono assicurarsi che i loro prodotti e le loro pratiche siano progettati in modo responsabile, tenendo conto del loro potenziale impatto sulla società. Ciò comincia — ma assolutamente non finisce — col mettere le persone, e non le macchine, più fermamente al comando.

 

Bisogna essere in due per ballare il tango

Immagina di essere sulla strada di casa e di ricevere una chiamata dal tuo/dalla tua partner. Ti dice che il frigo è vuoto e ti chiede di fermarti a prendere alcune cose mentre torni. Se tu scegli gli ingredienti, lui/lei cucinerà la cena. Decidi dunque di passare al supermercato e riempi il carrello con una dozzina di articoli. Chiaramente, sceglierai solo cose che hai voglia di mangiare — magari scegli la pasta e non il riso, i pomodori ma non i funghi. Quando arrivi a casa, svuoti la borsa in cucina e il tuo/la tua partner inizia a cucinare: decide quale piatto preparare, quali ingredienti usare e in che misura. Quando ti siedi a tavola, la cena di fronte a te è il risultato di uno sforzo congiunto: delle tue decisioni al supermercato e di quelle del/della partner in cucina.

La relazione tra gli utenti di internet e gli algoritmi che presentano loro contenuti personalizzati è sorprendentemente simile. Ovviamente nessuna analogia è perfetta e non deve essere presa alla lettera. Ci sono altre persone che fanno molte altre cose — dalla produzione del cibo, alla progettazione della confezione, alla disposizione sugli scaffali del supermercato — e le cui azioni contribuiscono al piatto finale. Ma in definitiva, la classificazione dei contenuti è frutto di una collaborazione dinamica tra persone e algoritmi. Su Facebook, bisogna essere in due per ballare il tango.

In un recente discorso, la Vicepresidente Esecutiva della Commissione Europea Margrethe Vestager ha paragonato i social media al film The Truman Show. In questo film, il Truman di Jim Carrey non ha libertà d’azione. È il protagonista inconsapevole di un reality show nel quale il suo intero mondo è fabbricato e controllato da una società di produzione televisiva. Ma questo confronto non rende giustizia agli utenti dei social media. Questi partecipano attivamente alla loro esperienza.

Il “mondo” personalizzato della tua sezione Notizie è modellato dalle tue scelte e dalle tue azioni. È costituito principalmente dai contenuti degli amici e dei familiari a cui scegli di connetterti sulla piattaforma, dalle Pagine che scegli di seguire e dai Gruppi a cui decidi di iscriverti. La classificazione non è altro che il processo attraverso cui, utilizzando degli algoritmi, questi contenuti vengono ordinati.

Questa è la magia dei social media, la cosa che li differenzia dai vecchi tipi di media. Non c’è un editore a stabilire il titolo della prima pagina che milioni di persone leggeranno su Facebook. Al contrario, ci sono miliardi di “prime pagine”, ciascuna delle quali è personalizzata a seconda dei nostri gusti e alle nostre preferenze individuali,  e ognuna riflette il nostro network di amici, Pagine e Gruppi.

Da due decenni, la personalizzazione è al centro dell’evoluzione di internet. Dalle ricerche su Google, allo shopping su Amazon, alla visione di film su Netflix, una caratteristica fondamentale di internet è che consente un proficuo ciclo di feedback nel quale le nostre preferenze e comportamenti modellano il servizio che ci viene fornito. Significa che ognuno riceve le informazioni più pertinenti e quindi l’esperienza più significativa. Immagina se, invece di presentare consigli sulla base delle cose che hai guardato, Netflix si limitasse a elencare migliaia e migliaia di film e serie tv in base a quali sono quelli più visti. Non sapresti da dove iniziare.

Quando pensi a Facebook, la prima cosa che ti viene in mente probabilmente è ciò che vedi nella tua sezione Notizie. Si tratta essenzialmente della “prima pagina” di Facebook, modellata su di te: l’esposizione verticale di testi, immagini e video che scorri verso il basso quando apri l’app di Facebook sul tuo telefono o accedi a facebook.com sul tuo computer. In media, per ogni persona ci sono migliaia di post potrebbero essere visti in ogni momento. Per questo motivo, per aiutarti a trovare i contenuti che riterrai più significativi o interessanti utilizziamo un processo chiamato classificazione, il quale ordina i post nella tua sezione Notizie, mettendo all’inizio le cose che pensiamo troverai più significative. L’idea è far sì che i contenuti postati dal tuo migliore amico vengano posizionati in cima alla tua sezione Notizie, mentre quelli di un conoscente che hai incontrato diversi anni fa saranno spesso molto più in basso.

Tutti i contenuti che potrebbero comparire nella tua sezione Notizie — inclusi i post che non hai visto dei tuoi amici, delle Pagine che segui e dei Gruppi di cui fai parte — passano attraverso il processo di classificazione. Migliaia di fattori vengono presi in considerazione per questi post, come ad esempio chi li ha postati, quando, se si tratta di una foto, di un video o di un link, quanto sono popolari sulla piattaforma, o il tipo di dispositivo che stai utilizzando. L’algoritmo usa questi fattori per prevedere quanto è probabile che il contenuto sia interessante e significativo per te: per esempio, quanto è probabile che metterai “Mi piace” o riterrai che visualizzarlo valga il tuo tempo. L’obiettivo è assicurarsi che tu veda ciò che ritieni più significativo, non tenerti incollato allo smartphone per ore e ore. Tutto questo può essere visto come una specie di filtro antispam nella tua casella e-mail: esso ti aiuta a filtrare i contenuti che non troverai interessanti, dando priorità a quelli che lo sono.

Prima di attribuire all’“algoritmo” una sua indipendente facoltà di giudizio, si dà il caso ovviamente che questi sistemi funzionino secondo regole messe in atto da delle persone. Sono decisori interni a Facebook a decidere quali tipi di contenuto sono accettabili sulla piattaforma. Facebook ha degli Standard della community dettagliati, sviluppati nel corso di diversi anni, che vietano i contenuti dannosi, e investe molto nello sviluppo di metodi per identificarli e agire rapidamente su di essi.

Chiaramente, se i limiti tracciati da Facebook sono giusti o se sono stati individuati secondo le giuste considerazioni è una questione su cui è giusto che si discuta. Ed è del tutto ragionevole sostenere che le società private non dovrebbero prendere da sole così tante e così importanti decisioni riguardo a quali contenuti siano accettabili. Sarebbe chiaramente meglio se queste decisioni venissero prese all’interno di cornici concordate da legislatori eletti democraticamente. Ma in assenza di tali leggi, ci sono decisioni che devono essere prese in tempo reale. 

Lo scorso anno, Facebook ha istituito un Comitato per il controllo per prendere le decisioni finali su alcune delle scelte più difficili riguardo ai contenuti. Si tratta di un organismo indipendente, le cui decisioni sono vincolanti: non possono essere annullate né da Mark Zuckerberg né da nessun altro all’interno di Facebook. Nel momento in cui sto scrivendo questo articolo, il Comitato ha già ribaltato la maggior parte delle decisioni di Facebook che le sono state sottoposte. Esso è composta da esperti e leader civili provenienti da tutto il mondo, con background e punti di vista differenti, e ha cominciato a emettere giudizi e raccomandazioni all’inizio di quest’anno. In questo momento, il Comitato sta valutando la decisione di Facebook di sospendere a tempo indeterminato l’ex Presidente degli Stati Uniti Donald Trump in seguito ai suoi commenti che hanno incitato e contribuito alle scene orrende del Campidoglio.

Altri tipi di contenuti problematici vengono trattati direttamente durante la classificazione. Per esempio, ci sono tipi di contenuti che potrebbero non violare gli Standard della community di Facebook ma che sono comunque problematici in quanto gli utenti dicono di non apprezzarli. Facebook ne riduce la distribuzione, così come fa per i post ritenuti falsi da uno degli oltre 80 fact-checker indipendenti che verificano i contenuti di Facebook. In altre parole, durante la classificazione, la probabilità che un post sia considerato significativo e di interesse per l’utente conta come un fattore positivo, mentre gli indicatori che ci dicono che il post possa essere problematico (pur non violando gli Standard della community) vengono contati in modo negativo. I post con i punteggi più alti vengono quindi posizionati in cima alla sezione Notizie.   

Questo processo di vagliatura e classificazione si traduce in una sezione Notizie unica per ogni utente, come un’impronta digitale. Ovviamente, gli utenti non vedono l’algoritmo al lavoro e hanno una visione limitata sul perché e sul come i contenuti che vedono sono stati selezionati e su cosa potrebbero fare per cambiare le cose. Ed è esattamente in questo spazio che supposizioni, mezze verità e rappresentazioni sbagliate del modo in cui funziona Facebook possono mettere radici.

 

Qual è l’incentivo di Facebook?

Al centro di molte delle accuse rivolte a Facebook vi è l’idea che i suoi sistemi basati su algoritmi incoraggino attivamente la condivisione di contenuti sensazionalistici e siano progettati in modo da indurre gli utenti a continuare a scorrere senza fine la sezione Notizie. Naturalmente, trattandosi di una piattaforma che si basa sulla condivisione da parte delle persone di cose che suscitano il loro interesse o i loro sentimenti, è inevitabile che vengano condivisi contenuti che provocano forti emozioni. Da un certo punto di vista, il fatto che le persone rispondano maggiormente a contenuti sensazionalistici non è una novità. Come testimoniato da  generazioni di redattori di giornali, l’utilizzo di un linguaggio emotivo e immagini accattivanti cattura l’attenzione del pubblico e lo coinvolge. È la natura umana. Ma i sistemi di Facebook non sono progettati per premiare i contenuti provocatori. Anzi, elementi fondamentali di tali sistemi sono ideati per fare esattamente l’opposto.

Facebook limita la diffusione di diversi tipi di contenuti — facendoli apparire più in basso nella sezione Notizie — in quanto sensazionalistici, fuorvianti o ritenuti falsi dai nostri partner indipendenti che si occupano di fact-checking. Ad esempio, Facebook declassa i clickbait (titoli fuorvianti o esagerati), le dichiarazioni particolarmente eclatanti legate alla salute (come quelle che promuovono “cure miracolose”) e l’engagement bait (post volti esplicitamente ad ottenere l’interazione da parte degli utenti).

L’approccio di Facebook non si limita semplicemente ad affrontare i contenuti sensazionalistici e fuorvianti uno ad uno. Qualora Pagine e Gruppi pubblichino ripetutamente queste tipologie di contenuti, come clickbait o disinformazione, Facebook riduce la diffusione di tutti i post provenienti da tali Pagine e Gruppi. Allo stesso modo, nel caso in cui  alcuni siti web mostrino un traffico in entrata proveniente da Facebook sproporzionato rispetto a quello derivante dal resto di internet, Facebook declassa tutti i post delle Pagine gestite da tali siti, in quanto ciò potrebbe indicare l’utilizzo di un modello di pubblicazione di contenuti particolarmente sensazionalistici o di spam.

Facebook ha inoltre apportato dei correttivi ad altri aspetti (anche fondamentali) del proprio approccio alla classificazione dei contenuti, così da rendere probabile un declassamento dei contenuti sensazionalistici. Fin dai primi passi mossi dalla piattaforma, l’azienda si è affidata a metriche di interazione esplicita — vale a dire, il fatto che le persone mettessero “Mi piace”, commentassero o condividessero un post — per determinare quali post sarebbero queste ultime avrebbero trovato più interessanti. Tuttavia, l’utilizzo di tali metriche si è evoluto mentre altri fattori che vengono tenuti in considerazione da Facebook si sono ampliati.

Nel 2018 Mark Zuckerberg ha annunciato che i suoi team di prodotto si sarebbero concentrati non solo sul proporre agli utenti i contenuti più rilevanti ma anche su come aiutarli ad avere interazioni sociali più significative, principalmente promuovendo contenuti pubblicati da amici, familiari e Gruppi di cui sono parte al posto di quelli provenienti da Pagine da loro seguite. L’effetto è stato quello di modificare la classificazione dei contenuti in maniera tale da mantenere il ruolo primario svolto dalle metriche di interazione esplicita nel filtrare i post di probabile interesse, aggiungendo però un livello supplementare di valutazione dei contenuti potenzialmente più significativi per l’utente. Nel fare ciò, Mark ha esplicitamente ammesso che tale cambiamento avrebbe portato le persone a passare meno tempo su Facebook, dal momento che le Pagine — nelle quali realtà editoriali, squadre sportive, politici e celebrità tendono ad essere presenti — pubblicano normalmente contenuti più coinvolgenti anche se meno significativi per gli utenti rispetto, per esempio, ai loro genitori. La previsione si è rivelata corretta: le modifiche hanno determinato un calo di 50 milioni di ore di tempo speso su Facebook ogni giorno e una perdita di miliardi di dollari nella capitalizzazione di mercato dell’azienda.

Questo cambiamento era parte di un’evoluzione dell’approccio di Facebook alla classificazione dei contenuti. L’azienda ha da allora diversificato il proprio approccio, individuando nuove modalità per determinare quali contenuti le persone trovino più significativi, anche chiedendolo direttamente a loro, e incorporando poi tali risposte nel processo di classificazione. Ad esempio, Facebook utilizza i sondaggi per scoprire quali sono i post che le persone ritengono valga la pena visualizzare, dando poi la priorità ai post che si prevede corrispondano ai parametri indicati. I sondaggi vengono usati anche per comprendere meglio quanto diversi amici, Pagine e Gruppi siano significativi per le persone, aggiornando gli algoritmi di classificazione dei contenuti sulla base delle risposte. Tale approccio fornisce un quadro più completo delle tipologie di post che le persone trovano più rilevanti, valutando la loro esperienza al di là della reazione immediata, compresa l’attrazione istintiva provocata da un qualsiasi contenuto sensazionalistico.

Facebook sta inoltre iniziando ad esplorare se e come classificare alcune importanti categorie di contenuti in modo diverso — quali ad esempio quelle relative a notizie, politica o salute — al fine di rendere più semplice la ricerca di post di valore e informativi. Non solo, lo scorso mese è stato annunciato che Facebook sta considerando la possibilità di ridurre la quantità di contenuti politici (spesso non immuni al sensazionalismo) nella sezione Notizie in risposta al forte feedback degli utenti, che in generale ne vogliono vedere di meno. Ciò fa seguito alla recente decisione di Facebook di smettere di suggerire gruppi civici e politici negli Stati Uniti, che si sta ora estendendo a livello globale.

Tale evoluzione si applica anche ai Gruppi ai quali le persone si iscrivono per condividere interessi ed esperienze. Facebook ha adottato misure importanti per rendere questi spazi più sicuri, tra cui la restrizione o rimozione di membri o gruppi che violano gli Standard della community.

Facebook è consapevole che ci sono momenti in cui è nell’interesse generale della società che informazioni autorevoli su questioni di attualità risultino prioritarie nella sezione Notizie. Ma così come messaggi dei medici che ci indicano di mangiare più verdure o dei dentisti che ci ricordano di usare il filo interdentale non saranno mai così interessanti come il gossip sulle celebrità o l’opinionismo politico, Facebook si rende conto che è necessario integrare il processo di classificazione dei contenuti per aiutare le persone a trovare informazioni autorevoli. Questo è esattamente ciò che è stato fatto lo scorso anno, aiutando le persone a reperire informazioni accurate e aggiornate relative sia al Covid-19 che alle elezioni statunitensi. In entrambi i casi Facebook ha creato dei centri di informazione con link e risorse provenienti da fonti ufficiali, ponendoli in cima alla sezione Notizie degli utenti. I due centri hanno ricevuto un enorme riscontro, con più di 600 milioni di persone che hanno cliccato su fonti attendibili di informazioni sul Covid-19 attraverso Facebook e Instagram e circa 4,5 milioni di statunitensi che sono stati aiutati nella registrazione al voto.

La realtà è che non è nell’interesse di Facebook — né da un punto di vista economico né reputazionale — alzare continuamente la temperatura e spingere gli utenti verso contenuti sempre più estremi. La crescita a lungo termine dell’azienda è legata alla necessità che le persone continuino ad utilizzare i suoi prodotti negli anni a venire. Se la priorità fosse quella di tenere gli utenti online 10 o 20 minuti in più, ma così facendo si rischiasse di renderli meno propensi a utilizzare la piattaforma in futuro, sarebbe un meccanismo autodistruttivo. È inoltre necessario tenere a mente che la stragrande maggioranza dei ricavi di Facebook deriva dalla pubblicità. Gli inserzionisti non vogliono che i loro marchi e prodotti siano visualizzati accanto a contenuti estremi o di odio — così come esplicitamente affermato la scorsa estate nel corso di un boicottaggio da parte di alcuni celebri marchi. Sebbene i contenuti problematici siano solo una piccola proporzione del totale (i contenuti di hate speech vengono visti 7 o 8 volte ogni 10.000 visualizzazioni su Facebook), la suddetta protesta ha mostrato come l’interesse economico di Facebook sia quello di ridurre, e certo non incoraggiare o ottimizzare, tali contenuti.

 

Polarizzazione

Anche se ci si trova d’accordo sul fatto che gli incentivi di Facebook non supportino la promozione deliberata di contenuti estremi, vi è comunque una percezione diffusa che la polarizzazione politica e sociale, soprattutto negli Stati Uniti, sia cresciuta a causa dell’influenza dei social media. Negli ultimi anni questo è stato oggetto di moltissime ricerche accademiche, i cui risultati sono in realtà contrastanti, dal momento che molti studi suggeriscono che i social media non sono in fin dei conti il motore principale della polarizzazione e che le prove dell’effetto “filter bubble” anche nel migliore dei casi sono scarse.

Una ricerca dell’Università di Stanford dello scorso anno ha esaminato nel dettaglio le tendenze in nove paesi nel corso di 40 anni, rilevando che in alcuni paesi la polarizzazione era in aumento prima ancora dell’avvento di Facebook, mentre in altri è diminuita parallelamente all’incremento dell’uso di internet e Facebook. Altri studi recenti hanno scoperto che la polarizzazione negli Stati Uniti è aumentata di più tra i gruppi demografici meno propensi a usare internet e i social media, e dati pubblicati nell’Unione Europea suggeriscono che i livelli di polarizzazione ideologica sono simili sia che si ricevano le notizie dai social media, sia da altre fonti.

Uno studio di Harvard relativo alle elezioni americane del 2020 ha rivelato che la disinformazione legata alle elezioni è stata guidata principalmente dai media d’élite e di massa, non ultimi i notiziari televisivi, e ha suggerito che i social media hanno svolto un ruolo solamente secondario. Inoltre, le ricerche del Pew Research Center del 2019 e del Reuters Institute del 2017 hanno mostrato che è più probabile imbattersi in opinioni e idee diverse utilizzando i social media che interagendo solo con altre tipologie di media.

Un precedente studio dell’Università di Stanford ha mostrato che la disattivazione di Facebook per quattro settimane prima delle elezioni americane del 2018 ha ridotto la polarizzazione sui temi politici, ma ha anche portato a una riduzione della conoscenza delle notizie di attualità e dell’attenzione alla sfera politica da parte della popolazione. Tuttavia, non ha ridotto significativamente la cosiddetta “polarizzazione affettiva”, una misura dei sentimenti negativi di qualcuno nei confronti del partito opposto.

Semplicemente, le prove esistenti non supportano l’idea che i social media, o le “filter bubble” che presumibilmente essi creano, siano inequivocabilmente il motore della polarizzazione come da molti affermato. Una cosa che sappiamo con certezza è che i contenuti politici sono solo una piccola frazione di ciò che le persone visualizzano su Facebook — secondo la nostra analisi, negli Stati Uniti rappresenta solo il 6%. L’anno scorso ad Halloween c’è stato il doppio dell’aumento di post rispetto a quello che abbiamo registrato il giorno delle elezioni — e questo nonostante il fatto che Facebook avesse spinto le persone, in cima alla loro sezione Notizie, a pubblicare post relativi al voto.

 

Come allenare il tuo algoritmo

A differenza di quello che accade nell’esempio della coppia che cucina la cena, dove entrambi comprendono bene ciò che stanno facendo e ottenendo, la relazione tra utenti e algoritmi non è così trasparente.

Ciò deve cambiare. L’utente dovrebbe essere in grado di capire meglio come funzionano gli algoritmi di classificazione e perché prendono particolari decisioni, e dovrebbe avere maggior controllo sui contenuti che vengono mostrati. Dovrebbe essere in grado di rispondere all’algoritmo e aggiustare o ignorare consapevolmente le previsioni che esso fornisce, di modificare il proprio algoritmo personale alla fredda luce del giorno, attraverso spazi costruiti all’interno della piattaforma.

Per mettere meglio in pratica tutto questo, Facebook ha lanciato una serie di modifiche di prodotto per aiutarti a identificare e interagire più facilmente con gli amici e le Pagine a cui sei più affezionato. E sta dando maggiore importanza non solo alla creazione di tali strumenti, ma anche sul fatto che essi siano facili da trovare e da utilizzare.

Un nuovo prodotto chiamato “Preferiti”, che migliora il precedente controllo “mostra per primi”, permette alle persone di vedere i migliori amici e le Pagine che Facebook prevede siano le più significative per l’utente — e, cosa importante, è possibile adottare quei suggerimenti o semplicemente aggiungere altri amici e Pagine se lo si desidera. I post delle persone o delle Pagine che vengono selezionate manualmente saranno poi promossi nella sezione Notizie e contrassegnati da una stella. Questi post popoleranno anche un nuovo feed Preferiti, un’alternativa alla sezione Notizie standard.

Da un po’ di tempo è possibile visualizzare la sezione Notizie cronologicamente, in modo che i post più recenti appaiano più in alto. Ciò disattiva la classificazione basata sugli algoritmi, il che dovrebbe essere di conforto per coloro che diffidano del fatto che gli algoritmi di Facebook giochino un ruolo in ciò che vedono. Ma questa funzione non è sempre stata facile da trovare. Per questo motivo Facebook sta introducendo una nuova “barra dei filtri del feed“, per rendere più facile il passaggio tra il feed “Più recenti”, la sezione Notizie standard e il nuovo feed Preferiti.

Allo stesso modo, da un po’ di tempo Facebook ha provato ad aumentare la trasparenza riguardo al perché un particolare annuncio è apparso nella sezione Notizie attraverso lo strumento “Perché visualizzo questa inserzione?“, che è possibile visualizzare cliccando sui tre puntini nell’angolo in alto a destra di un annuncio. Questo è stato esteso alla maggior parte dei post presenti nella sezione Notizie nel 2019, e oggi è disponibile anche per alcuni post suggeriti,così da farti capire perché quei video di cucina o quegli articoli sui film continuano ad apparirti mentre scorri la pagina.

Queste misure sono parte di un cambiamento significativo nel modo di pensare dell’azienda relativamente a come dare alle persone maggiore comprensione e controllo su come gli algoritmi classificano i contenuti, e allo stesso tempo come utilizzare la classificazione e la distribuzione dei contenuti per garantire che la piattaforma abbia un impatto positivo sulla società nel suo complesso. Altre misure in arrivo quest’anno includono il fornire maggiore trasparenza su come viene ridotta la distribuzione di contenuti problematici; rendere più facile capire quali contenuti sono popolari nella sezione Notizie; lanciare più sondaggi per capire meglio come le persone si sentono in relazione alle interazioni che vedono su Facebook e regolare in modo trasparente i nostri algoritmi di classificazione sulla base dei risultati; rendere pubblici più indicatori e previsioni che guidano il processo di classificazione della sezione Notizie; e collegare le persone con informazioni autorevoli riguardo a più temi dove vi è un chiaro beneficio sociale, come i centri sul cambiamento climatico e sulla giustizia razziale. Altri cambiamenti sono previsti nel corso dell’anno.

 

Fare pace con le macchine

Mettere più scelte nelle mani delle persone non è una panacea per tutti i problemi che possono verificarsi su una piattaforma sociale aperta come Facebook. Molti possono preferire, e lo fanno, contenuti sensazionalistici e polarizzanti rispetto ad altri.

I social media permettono a chiunque di discutere, condividere e esporre critiche liberamente e su larga scala, senza i confini o la mediazione precedentemente imposta dai guardiani dell’industria dei media tradizionali. L’utilizzo dei social media ha rappresentato, per centinaia di milioni di persone, la prima occasione per parlare liberamente ed essere ascoltate, senza alcuna barriera d’ingresso a parte una connessione a internet. La gente non ha solo una videocamera in tasca: grazie ai social media, ha anche i mezzi per diffondere ciò che vede.

Si tratta di una marcata e allo stesso tempo storica democratizzazione della parola. E come ogni forza democratizzante, sfida le strutture di potere esistenti. Le élite politiche e culturali stanno affrontando una rumorosa conversazione online che non possono controllare e molti sono comprensibilmente preoccupati a riguardo.

Laddove possibile, credo che le persone dovrebbero essere in grado di scegliere da sole, e che generalmente si può fare affidamento sul fatto che le persone sappiano cosa è meglio per loro. Ma sono anche profondamente consapevole che abbiamo bisogno di regole di base concordate collettivamente, sia sulle piattaforme dei social media che nella società in generale, per ridurre la probabilità che le scelte esercitate liberamente dagli individui portino a danni collettivi. La politica è in larga parte una conversazione su come definire queste regole di base in un modo che goda della più ampia legittimazione possibile e la sfida che i social media affrontano ora è, nel bene e nel male, intrinsecamente politica.

Un’azienda privata dovrebbe intervenire per plasmare le idee che fluiscono attraverso i suoi sistemi, al di là della prevenzione di danni gravi come l’incitamento alla violenza e le molestie? Se sì, chi dovrebbe prendere queste decisioni? Un gruppo indipendente di esperti? I governi dovrebbero stabilire a quali tipi di conversazione i cittadini sono autorizzati a partecipare? C’è un modo in cui una società profondamente polarizzata come gli Stati Uniti potrebbe mai essere d’accordo su cosa costituisca una sana conversazione a livello nazionale? Come tenere conto del fatto che internet sia senza confini e che le regole sulla libertà di espressione dovranno accogliere una molteplicità di prospettive culturali?

Queste sono domande importanti e le aziende tech non dovrebbero essere lasciate sole a rispondervi. Promuovere la libertà individuale è la parte più semplice. Identificare i contenuti dannosi e tenerli fuori da internet è impegnativo, ma fattibile. Ma mettersi d’accordo su ciò che costituisce il bene collettivo è davvero molto complicato. Un esempio è la decisione di Facebook di sospendere l’ex Presidente Trump dalla piattaforma. Molti hanno accolto con favore la decisione — anzi, molti hanno sostenuto che fosse ora che Facebook e altri compissero un’azione così risoluta. È una decisione che ritengo assolutamente giusta. Ma è stato anche forse l’esempio più drammatico del potere della tecnologia sul discorso pubblico e ha provocato domande legittime sull’equilibrio di responsabilità tra aziende private e autorità pubbliche e politiche.

Ora, sia che i governi scelgano di irrigidire le condizioni del dibattito online, sia che le aziende private scelgano di farlo da sole, dovremmo diffidare dal concludere che la risposta a questi dilemmi sia limitare la libertà di espressione. Sebbene non dobbiamo assumere che la libertà assoluta porti a risultati perfetti, non dovremmo nemmeno credere che estendere la libertà di espressione porti a un degrado della società. Un presupposto implicito nelle argomentazioni avanzate da molti critici dei social media è che non ci si possa fidare a lasciare alle persone un ampio diritto alla libertà di espressione; o che questa libertà sia un’illusione e che le loro menti sono in realtà controllate dagli algoritmi e dalle sinistre intenzioni dei loro padroni, le Big Tech.

Forse è arrivato il momento di riconoscere che la colpa non è tutta di delle “macchine” senza volto? Consideriamo, ad esempio, la presenza di contenuti dannosi e polarizzanti sulle app di messaggistica privata (iMessage, Signal, Telegram, WhatsApp) utilizzate da miliardi di persone in tutto il mondo. Nessuna di queste app utilizza algoritmi di classificazione dei contenuti. Si tratta solo di esseri umani che parlano con altri esseri umani, senza che nessuna macchina si metta in mezzo. Per molti aspetti, sarebbe più facile dare agli algoritmi la colpa di tutto, tuttavia ci sono forze sociali più profonde e complesse in gioco. Dobbiamo guardarci allo specchio, e non confortarci con la falsa convinzione di essere stati semplicemente manipolati da delle macchine per tutto il tempo.

La verità è che le macchine non hanno preso il sopravvento, ma sono qui per restare. Dobbiamo fare pace con loro. Una migliore comprensione della relazione tra utenti e algoritmi è nell’interesse di tutti. Le persone devono avere fiducia in dei sistemi che sono parte integrante della vita moderna. Internet ha bisogno di nuove regole che possano ottenere un ampio consenso tra il pubblico. E le aziende tecnologiche devono conoscere i parametri entro i quali alla società va bene che esse operino, così che siano autorizzate a continuare ad innovare. Ciò inizia con l’apertura e la trasparenza, e con il dare agli utenti maggiore controllo.



×

Iscriviti alla newsletter