Skip to main content

Facebook e la rivoluzione dell’algoritmo. Parla Antonio Nicita

Il professor Nicita, già commissario AgCom e ora nella segreteria tecnica del Pd con la delega su istituzioni, tecnologie e Pnrr, commenta con Formiche.net l’editoriale di Nick Clegg sul nuovo approccio di Facebook alla trasparenza e al controllo dei contenuti. Il tema dirimente non è più soltanto l’effetto polarizzante dei singoli contenuti ma la capacità di generare agenda setting

Nick Clegg, Vice President of Global Affairs di Facebook, ha pubblicato un lungo articolo in cui racconta come funziona l’algoritmo che ci mostra i contenuti sul social network. Il titolo è “It takes two to tango”, e l’idea portante è che non siamo semplici “vittime” di Facebook e della sua intelligenza artificiale, ma utenti consapevoli che possono usare questo strumento in modo proficuo. Abbiamo contattato Antonio Nicita, ordinario di politica economica all’università Lumsa ed ex commissario AgCom, esperto di questioni al confine tra tecnologia, economia e diritto, per commentare le novità del social network più usato al mondo.

Siamo entrati in una nuova era del nostro rapporto con i social media, in cui potremo imparare a “domare” l’algoritmo?
Diciamo che ci sono state diverse stagioni nell’evoluzione dei social e anche delle regole che vengono adottate dalle piattaforme come ‘self-regulation’. E’ vero che i processi di autoselezione agiscono nelle due direzioni della domanda e dell’offerta. Ci sono le scelte degli utenti e c’è la selezione algoritmica che si basa sulla profilazione. Si tratta di una relazione che, come dimostra la letteratura empirica fin qui prodotta, ha diverse dinamiche in funzione della tipologia del contenuto, del profilo dell’utente e della propensione alla polarizzazione.

La polarizzazione. In questi anni molto si è scritto sul ruolo dei social network nell’acuire i conflitti politici e sociali. Clegg sottolinea che gli studi in materia non sono univoci nell’assegnare le responsabilità. Con lo “switch off” di profili particolarmente polarizzanti (il caso Trump) e un maggior controllo su quello che si pubblica sulle piattaforme, il dibattito politico ne potrà giovare o ne sarà impoverito?

La letteratura empirica più recente non è univoca sul ruolo endogeno della polarizzazione, è vero. A mio avviso il tema dirimente non è più soltanto l’effetto polarizzante dei singoli contenuti ma la capacità di generare agenda setting, specie da parte di campagne organizzate di disinformazione, come abbiamo visto anche sui contenuti relativi alla pandemia. Le strategie di disinformazione sono organizzate per determinare una precisa agenda setting che, ovviamente trova nei meccanismi algoritmici, un acceleratore. Il tema del controllo è molto delicato e il Digital Services Act europeo ci offre l’opportunità di una discussione pubblica su questo e sul tema della trasparenza e accountability della futura co-regolazione. Senza dubbio l’empowerment della domanda di informazioni potrà svolgere un ruolo importante, ma se accompagnato da un pacchetto di misure e di scelte di auto-profilazione facili da selezionare.

Facebook ha lanciato un nuovo menu che consente a profili privati e pagine pubbliche di limitare l’inserimento di commenti da parte degli utenti. In questo modo si dovrebbero ridurre le interazioni indesiderate. È questa la strada del futuro? Dare a ognuno una maggiore possibilità di “curare” i contenuti sui propri spazi online?

Sicuramente questo appare uno strumento interessante per lo smoothing della polarizzazione e forse anche delle strategie di agenda setting. A questo aggiungerei un dibattito serio sull’advertising politico-elettorale, tema in discussione a livello europeo con la proposta europea sulla digital democracy. Però questo tema dimostra come le scelte algoritmiche e di framing incidano. Su queste questioni anche definire evidence-based rules diventa importante, ma significa valutare assieme e con trasparenza quali possano essere i possibili effetti sul pluralismo online.

Negli anni ho notato una cosa: Facebook, purtroppo per noi testate giornalistiche, non ha l’incentivo a mostrare troppe notizie, in particolare quelle che scatenano le emozioni più forti, perché sono un disincentivo alla condivisione di contenuti più intimi e alle interazioni tra amici e parenti, due cose su cui si fonda il suo modello (anche di business). Forse la stessa azienda ha capito che una timeline troppo urlata rischiava di alienare gli utenti?

Questa mi sembra una delle lezioni che ereditiamo dalle due tornate di elezioni presidenziali americane. E che porta a interrogarci su che cosa significa libertà di espressione oggi, nella costruzione di un discorso pubblico o di una opinione pubblica o di un dibattito aperto in quella che Habermas chiamava la sfera pubblica. Anche questo dibattito è ormai polarizzato. Eppure ai sostenitori della no moderation rule in nome della “libera libertà d’espressione’ basterebbe ricordare che persino per John Stuart Mill, difensore estremo del free speech, quella difesa era funzionale alla scoperta della verità dei fatti e trovava un limite nella generazione di un danno alle persone o allo stesso discorso pubblico. Occorre ripartire da lì.


×

Iscriviti alla newsletter