Sono giorni in cui Google è in prima pagina per la vicenda dell’ingegnere licenziato per le sue idee poco allineate con il “sistema”. “Le donne sono biologicamente diverse”, la frase incriminata e che è costata a James Damore il lavoro e la carriera. Perché è così che funziona nella Silicon Valley. La libertà d’opinione è sacrosanta, ma solo fino a quando non calpesta l’erba nel giardino delle idee liberal. Il buio oltre la siepe nasconde i tiranni a caccia di “discorsi d’odio” di cui Damore è l’ultima vittima.
D’altronde quella dei fantomatici hate speech – discorsi d’odio – è una battaglia antica per le felpe californiane dell’high tech. Proprio uno degli ultimi progetti di Google, infatti, è un’applicazione denominata Perspective. Un nuovissimo algoritmo considerato il vero passo avanti della compagnia nella direzione di un mondo in cui, finalmente, saranno possibili “discussioni online senza troll e commenti abusivi che silenziano le voci vulnerabili”. Il che vuol dire, semplicemente, che quelli di Google vorrebbero insegnare ai computer come mettere in atto la missione del secolo: la censura 2.0.
Gli algoritmi ideati dal colosso di Mountain View identificano, infatti, ogni contenuto di tipo “tossico” e assegnano un punteggio da 1 a 100 a ogni commento sulla base del suo potenziale distruttivo.
Nient’altro che una piattaforma che ha l’ambizione di individuare il “livello di tossicità” – quindi di malvagità? – dei commenti online e consentire alle aziende di “ordinare i commenti in modo più efficace e permettere ai lettori di trovare facilmente le informazioni pertinenti”. I partner del progetto di Google? Il New York Times, il Guardian, Wikipedia e l’Economist. Niente da invidiare, insomma, alle trame dei migliori romanzi distopici: polizia del pensiero alleata dei più grossi media.
Ma cos’è che fa di un commento un pericolo tossico? Ad aggrovigliare la matassa c’è che il problema non investe semplicemente le opinioni degli utenti, ma le affermazioni di principio.
Google, con il suo motto, ci consiglia di “fare la cosa giusta”. Siccome vogliamo essere buoni come loro, abbiamo provato a testare il nostro livello di tossicità per correre subito ai ripari. Un esperimento facile, in un perverso meccanismo in cui Perspective lascia gli utenti a giocare con le percentuali di male nel mondo.
Sostenere che “Allah non esiste”, per esempio, per l’algoritmo di Google è più grave che ritenere lo stesso di Gesù Cristo: per la prima affermazione la percentuale di “toxic” tocca il 27%, per la seconda solo il 4%. Il livello di tossicità nell’affermare che “l’Isis è un gruppo terroristico” raggiunge l’87%, il suo contrario 66%.
“Il cattolicesimo è un problema” sfiora il 34%, “l’Islam è un problema” tocca quota 78%. Ad affermare che “Osama Bin Laden era un terrorista” c’è il 96% di probabilità di essere licenziati da qualsiasi ufficio.
Si tratta di percentuali che tracciano il corso della censura in una strana polarizzazione del pensiero umano.
Eppure sembra che il problema sia a monte: perché le felpe della Silicon Valley credono di aver il dovere e il diritto di decidere quali siano i discorsi e le opinioni valide?
Domanda retorica se si pensa che della censura di stampo marcatamente marxista non si è invaghita solo Google. Facebook viaggia, da tempo, sulle stesse lunghezze d’onda. Sono anni che il signor Zuckerberg, promette al mondo che identificherà e rimuoverà “contenuti terroristici” incominciando dal superamento del problema delle fake news.
L’ultima volta risale al dicembre 2016. E appena un mese dopo il Washington Free Beacon rivelò che mister Facebook aveva scelto come alleato della sua crociata Media Matters, advocacy che ha l’ambizione, da qui al 2020, di combattere e vincere i “disinfomatori seriali e propagandisti di destra”. Premesse un tantino pericolose se declamate dal pulpito di chi ha i soldi, i finanziamenti, e il tesserino di paladino della giustizia e della verità. Già, verità, giustizia. La valle di silicio si è presa la briga, senza nessun mandato dall’alto, di censurare il mondo e ha arruolato organizzazioni politicamente partigiane per la causa dimostrando, esattamente, che il bavaglio alla massa è l’inevitabile corollario degli sforzi delle compagnie tecnologiche per regolamentare notizie e opinioni.
Eppure, tra i tanti, c’è un paradosso che stona con troppa evidenza. YouTube, di proprietà di Google, è da anni covo virtuale per imam ed esperti reclutatori di “martiri”. Ogni video – che conta un numero spropositato di visualizzazioni – è stato ed è parte della missione jihadista contro l’Occidente. Le immagini di cadaveri sorridenti sono online e sono fonte d’ispirazione per le giovani leve islamiche. Eppure l’Istituto di ricerca del Medio Oriente (Memri) qualche mese fa pubblicava un rapporto che rivela esattamente la totale incapacità di Google a rimuovere i contenuti inneggianti all’odio che promuovono e organizzano il terrorismo islamico.
Non si tratta più, in questo caso, di contenuti tossici?