Il detto “vedere per credere”, che trae la sua origine dalla proverbiale incredulità di San Tommaso, potrebbe non risultare più del tutto affidabile. Il titolo stesso dell’evento tenutosi presso la sede di Anica a Roma e organizzato dalla piattaforma Videocittà, La Minaccia del deepfake, non basta più vedere per credere, lo ricorda, affrontando con esperti e rappresentanti delle istituzioni la tematica del nuovo fenomeno del deepfake.
UNA NUOVA FRONTIERA
Questa recentissima innovazione consiste, secondo l’imprenditrice digitale Daniela Cacciamani, che ne ha sottolineato le opportunità e i rischi, essenzialmente di app e programmi che, attraverso l’intelligenza artificiale e il machine learning, sono in grado di sostituire (quasi) perfettamente un volto in una sequenza video. L’impatto, e le ripercussioni, di una tecnologia del genere sono potenzialmente devastanti, sia dal punto di vista della sicurezza individuale e nazionale, sia per il mondo dei media. Pur presentando sia rischi sia benefici, il deepfake risulta dunque particolarmente inquietante.
Secondo Mario Morcellini, commissario Agcom e docente di Comunicazione intervistato da Formiche.net a margine della conferenza, “le innovazioni sono positive quando aumentano il benessere degli esseri umani, non quello degli inventori. Quello che sconvolge in queste tecnologie è il fatto che, a differenza delle fake news, non viene alterato il contenuto dell’informazione, ma la sua messa in scena. È una svolta radicale, in quanto siamo abituati a prendere le misure – e a diffidare – da realtà che sono generalmente legate a un testo. Vi è quindi, in questo caso, un problema di preparazione critica. Da questo punto di vista ritengo che un’iniziativa di tipo etico, educativo e regolamentare sia indispensabile.”
I RISCHI DA CONTRASTARE
Nel corso della conferenza sono stati espressi pareri in merito anche dal direttore del Servizio di Polizia postale Nunzia Ciardi e dal sottosegretario di Stato presso il ministero dello Sviluppo economico, Gian Paolo Manzella. Il direttore Ciardi ha evidenziato, nel suo intervento, i rischi di questa nuova frontiera tecnologica, in un mondo dove la distinzione fra mondo reale e virtuale non ha più molto significato: “Il fenomeno deepfake, anche se tende a essere sottovalutato, ha delle impressionanti ripercussioni. Questa tecnologia può essere utilizzata per tanti scopi criminali pericolosissimi. Da quelli politici, evidenti, fino a quelli finanziari. Pensate a cosa può portare un falso filmato di un amministratore delegato in una videoconferenza. È una tecnologia che espone a rischi molto gravi.”
Il capo della Postale ha approfittato dell’occasione per sottolineare quanto sia necessaria, per rendere l’ecosistema digitale sicuro in misura accettabile, una collaborazione multilaterale, in quanto la legislazione nazionale non può essere in grado di contrastare efficacemente fenomeni criminali in rete. Il sottosegretario Manzella ha per parte sua voluto evidenziare come negli Usa l’agenzia del dipartimento della Difesa che si occupa di ricerca militare, la Darpa, sta già “sviluppando un programma che riconosce automaticamente i deep fake, e al Congresso c’è una proposta di legge in materia”. Anche in Italia e in Europa occorre, dunque, innovare le regolazioni vigenti, a stretto contatto con gli operatori.
I PROSSIMI PASSI DA COMPIERE
Francesco Rutelli, fondatore di Videocittà e presidente di Anica, ha tirato le somme del dibattito a margine dell’evento, descrivendo i rischi derivanti dal deepfake per la politica e i passi da compiere per evitarli, e ricordando un prossimo appuntamento sul tema: “La relazione forse più profonda riguarda l’utilizzo dei dati. È chiaro che la capacità di data mining, ovvero di perlustrare gusti, persuasioni e opinioni del pubblico e di entrare dentro questo universo personale con una comunicazione perfida, è volta a demolire i nostri convincimenti attraverso false informazioni che però si basano sui nostri convincimenti stessi. Questo è il vero grande rischio all’orizzonte e lo abbiamo visto con la celebre vicenda di Cambridge Analytica e in alcune elezioni importanti degli ultimi anni. La manipolazione delle nostre preferenze attraverso algoritmi può dunque avere un impatto determinante, soprattutto quando così forte è la polarizzazione politica. Quando viene meno la mediazione culturale o politica e la disintermediazione pone la persona direttamente di fronte a un fatto, se quel fatto è verosimile ma clamorosamente falso resta l’aggettivo “falso” ma non l’avverbio “clamorosamente”, perché nessuno se ne accorge. A questo punto diventa una tecnica che dobbiamo essere molto attrezzati a valutare.”
Per affrontare il fenomeno “abbiamo bisogno di realtà operative dell’enforcement, in grado di gestire il cyber spazio. Qualcosa che si ispiri, per esempio, allo straordinario impulso nella lotta al traffico clandestino delle opere d’arte ottenuto da quando l’Arma dei Carabinieri ha creato un proprio database, da cui ha preso esempio anche l’Fbi. Con questo esempio, di una realtà fisica che si avvale però di un controllo digitale sempre più sofisticato, voglio sottolineare che dobbiamo capire che i nostri investigatori della Polizia, dei Carabinieri e della Guardia di Finanza sono in grado di operare anche con una comprensione culturale dei fenomeni molto avanzata.” Per quanto riguarda i prossimi passi da effettuare, Rutelli ha rammentato un prossimo evento di Videocittà “al Senato, il 9 di dicembre” dove si aspetta che “da questa serie di contributi possano scaturire proposte per la regolazione, la collaborazione internazionale e l’enforcement che ci mettano tutti un po’ più al riparo. Anche se il primo riparo nasce da noi stessi, dobbiamo essere meno ingenui nel regalare i nostri dati. Dobbiamo esser più attenti nel valutare ciò che ogni giorno ci viene somministrato dalla rete”.