Un software per salvare vite, così è stata definita da Mark Zuckerberg la “rilevazione proattiva” basata sull’intelligenza artificiale con la quale Facebook analizza i messaggi degli utenti per individuare intenzioni suicide, permettendo alla piattaforma di aiutare chi sembra essere in difficoltà. È già disponibile negli Stati Uniti ma non ancora in Europa, data la non conformità di tale sistema con le rigorose regole a protezione della privacy contenute nel regolamento Ue 2016/679.
Zuckerberg sostiene che in futuro le applicazioni dell’intelligenza artificiale consentiranno di cogliere il significato delle diverse sfumature del linguaggio usato dagli utenti, così da poter identificare anche bullismo e odio sulla Rete. Con un blogpost ufficiale Guy Rosen, VP Product management di Facebook, ha dichiarato che il nuovo modello di contrasto e sostegno, basato in sostanza sulla profilazione degli utenti, è in grado di analizzare gli scambi verbali e le trasmissioni in diretta come Facebook Live. Attualmente Facebook, su segnalazione degli utenti provocate da frasi allarmanti, già prevede una “procedura d’emergenza” con la quale suggerisce al potenziale suicida, sovente minore di età, di ricorrere all’assistenza telefonica.
Ora, dopo averlo collaudato per diversi mesi, con il nuovo sistema il salto di qualità: invece di attendere la segnalazione degli utenti, la società interviene di propria iniziativa nei confronti di chi manifesti l’intenzione di volersi togliere la vita, sulla base della rilevazione di parole-chiave e schemi ricorrenti collegabili alla volontà di autolesionismo e suicidio. Facebook prende in esame non solo i post degli utenti, ma anche i commenti dei loro amici e le segnalazioni di chiunque rilevi contenuti che suscitino preoccupazione. In tal caso intervengono immediatamente squadre specializzate di “moderatori” per la prevenzione del suicidio. Si tratta di persone addestrate a intervenire, giorno e notte, che negli Stati Uniti operano con la collaborazione di numerosi partner locali come Save.org, National suicide prevention lifeline e Forefront.
L’iniziativa del gigante di Menlo Park, che evidenzia peraltro la potenza degli strumenti di intelligenza artificiale di cui dispone, risulta senza dubbio apprezzabile laddove risulti efficace per prevenire suicidi e salvare vite umane, tuttavia suscita alcuni interrogativi. Apre infatti la strada alla possibilità che un soggetto privato, senza alcuna autorizzazione di polizia o controllo giurisdizionale, con il pretesto di un obiettivo meritorio attivi un monitoraggio generalizzato della Rete analizzando i messaggi degli utenti, i loro dati più personali e sensibili per cercare elementi identificativi di qualsivoglia comportamento, magari rivelatore di opinioni politiche, con grave rischio e pregiudizio per la libertà di espressione e il diritto all’autodeterminazione informativa.
Articolo pubblicato sull’ultimo numero della rivista Airpress