I leader delle grandi piattaforme tecnologiche sono chiamati a difendere il loro operato contro la disinformazione online. Ecco la loro versione, i problemi da affrontare e i conflitti al cuore del dibattito. Il video integrale
Big Tech è nel mirino del Parlamento americano. In queste ore si sta svolgendo l’udienza virtuale in cui i leader di Twitter, Facebook e Google – rispettivamente Jack Dorsey, Mark Zuckerberg e Sundar Pichai – dovranno spiegare e difendere il loro approccio nella lotta alla disinformazione online. L’argomento è scottante per via dell’assalto a Capitol Hill dello scorso sei gennaio, riconducibile appunto al diluvio di fake news veicolato da questi servizi, ma il dibattito è annoso, ben documentato e parecchio torbido. In breve: come si può limitare la disinformazione senza intaccare la libertà di parola?
L’udienza parte dal presupposto, corretto, che Big Tech non sta facendo abbastanza per combattere la diffusione di disinformazione. Questo dipende anche da come è stato congegnato il sistema. “Le piattaforme tecnologiche massimizzano la loro portata – e i propri proventi pubblicitari – usando algoritmi o altre tecnologie per promuovere e suggerire contenuti che aumentano il coinvolgimento,” scrive Frank Pallone, a capo del comitato parlamentare che dirige i lavori, nella dichiarazione di apertura. Perciò vengono promossi maggiormente i contenuti più scandalistici, provocatori ed estremisti. Che, peraltro, possono essere “mirati” con precisione incredibile nella direzione degli utenti più suscettibili a essi, grazie alle tecnologie di profilazione su cui si basa questo modello.
A onor del vero, le compagnie non sono state con le mani in mano. Certi tipi di contenuti (come violenza o pedofilia) non sono mai stati tollerati, ma la pandemia le ha portate a rimuovere la disinformazione relativa al Covid-19 con più aggressività, allargando il campo di ciò che si considerava “dannoso per il discorso pubblico” anche agli antivaccinisti e ai negazionisti. Da lì a bandire i post di QAnon, il passo è stato breve. E dopo i fatti di Capitol Hill, causati anche da questa ideologia cospirazionista come anche dall’ex presidente Donald Trump, si è arrivati all’eccezionale passo di bloccare Trump stesso.
La questione è complessa, non esiste una soluzione unanime per via delle diverse sensiblità in campo. Però esiste un relativo consenso sul fatto che Big Tech debba cambiare approccio. Come fare? In America il nocciolo legale della questione è incarnato dalla Sezione 230 del Communications Decency Act, una legge risalente al 1996 che rende immune “il fornitore di un servizio per computer interattivo” dal doversi assumere la responsabilità dei contenuti pubblicati da terzi. In sostanza, dunque, compagnie come Facebook non hanno responsabilità “editoriali”. Ma a Washington molti credono che sia ora di ripensare la legge.
Dalle testimonianze diffuse negli scorsi giorni da Dorsey, Zuckerberg e Pichai possiamo tracciare la linea della loro difesa. Il fondatore di Twitter crede che esista un “deficit di fiducia” nei confronti delle piattaforme tech, da colmare con più trasparenza e controllo sull’algoritmo da parte degli utenti. Dorsey sta sperimentando anche Birdwatch, un programma che permette agli utenti di segnalare una potenziale fake e aggiungerci informazioni contestuali, e Bluesky, una squadra indipendente in grado di creare standard aperti e decentralizzati per i contenuti. Nessun cenno, però alla Sezione 230.
Anche Facebook sta sperimentando con una sorta di Corte Suprema dei contenuti, la Facebook Oversight Board, che entro un mese delibererà sulla sospensione di Trump. Nella nota inviata al Congresso Zuckerberg ha evidenziato i recenti sforzi della piattaforma nel combattere la disinformazione e ha proposto una variazione della Sezione 230, in cui la protezione legale della piattaforma digitale dovrà essere contingente alla sua capacità di realizzare le best practices per evitare la diffusione di fake. Tradotto: invece di giudicare la compagnia a partire dai contenuti individuali che filtrano attraverso i controlli, si dovrebbe giudicare l’adeguatezza del suo sistema di filtraggio.
Mr Google, come anche Mr Facebook, ha posto l’accento sull’attenzione che la compagnia ha riservato alle fonti autorevoli durante la pandemia. Per quanto riguarda la Sezione 230, Pichai crede che le proposte di cambiare o abrogare la legge potrebbero ritorcersi contro le compagnie, danneggiando sia la libertà di parola che l’abilità della singola piattaforma di combattere la disinformazione. La sua soluzione, simile a quella di Dorsey, è più trasparenza sulle dinamiche degli algoritmi.
I tre affrontano un fronte di parlamentari eterogeneo, unito solo dalla convinzione che qualcosa vada cambiato. Tra i democratici si tende a pensare che le piattaforme dovrebbero essere responsabilizzate cambiando la Sezione 230, di modo da costringerle a modificare gli algoritmi o spendere più risorse per la moderazione (tutte e tre le compagnie fanno ricorso a moderatori esterni). Tra i repubblicani, invece, si teme che l’adozione di linee guida condivise possa impattare la libertà di parola.
C’è parecchia frizione anche tra i due partiti: i conservatori credono che le piattaforme parteggino per i democratici e censurino più voci nell’area repubblicana (teoria che i dati non supportano), mentre i progressisti vogliono un approccio più aggressivo nei confronti di contenuti violenti e potenzialmente dannosi – un approccio che, secondo i repubblicani, ridurrebbe la libertà di espressione.
Le ripercussioni dell’audizione attraverseranno l’Atlantico. Il Digital Services Act allo studio della Commissione europea prevede pene molto salate e auditor esterni per le piattaforme, esperti in grado di studiarne i meccanismi e illuminare la radice del problema disinformazione, ossia gli algoritmi. A Bruxelles, dunque, hanno le antenne puntate su Washington per vedere le prossime mosse di Big Tech.