Skip to main content

Intelligenza vera o falsa? Il progetto IdentifAI spiegato da Argante

Di Enzo Argante

Una piattaforma tecnologica dotata di intelligenza artificiale “degenerativa”, in grado di riconoscere con un’elevata probabilità, se un’immagine o un video è stato prodotto da una IA generativa oppure da un essere umano. Si chiama IdentifAI ed è stata ideata da Marco Ramilli, una garanzia quando si affrontano i temi del mondo digitale. Ne parla Enzo Argante, presidente di Nuvolaverde

L’intelligenza artificiale generativa è in grado di produrre immagini, video, suoni e testi ormai indistinguibili da quelli prodotti dall’essere umano. Questa capacità comporta infinite possibilità di sviluppo e scenari di aumenti di produttività in qualsiasi campo. Ecco la grande chance… Secondo Goldman Sachs, l’IA generativa potrebbe incrementare il Pil globale di circa il 7%, pari a quasi 7 trilioni di dollari, nel prossimo decennio grazie a un aumento della produttività stimato intorno all’1,5% annuo.

McKinsey, invece, ha stimato che l’IA generativa potrebbe aggiungere tra i 2,6 e i 4,4 trilioni di dollari in valore annuale a livello globale attraverso vari settori industriali. In particolare, l’adozione diffusa di queste tecnologie potrebbe tradursi in un aumento del Pil globale di circa il 16% entro il 2030, il che equivale a un incremento annuale del Pil dell’1,2%. J.P. Morgan prevede un impatto ancora più significativo, stimando che l’IA generativa potrebbe aumentare il Pil globale di 7-10 trilioni di dollari, cioè fino al 10%, grazie a un boom di produttività nei prossimi anni.

Questo incremento sarà trainato da una maggiore efficienza nelle operazioni quotidiane, nello sviluppo software e nelle diagnosi mediche. Nel panorama della tecnologia contemporanea, l’intelligenza artificiale generativa ha dunque guadagnato una posizione di rilievo, promettendo innovazioni senza precedenti. Tuttavia, come spesso accade con le grandi scoperte, emergono anche rischi significativi, in particolare quando si tratta di immagini e video deep fake. Ecco il lato oscuro della forza… I deep fake possono essere utilizzati per manipolare i mercati finanziari, creando video falsi di dirigenti aziendali che annunciano decisioni strategiche o crisi immaginarie. Questo può portare a fluttuazioni di mercato, perdite ingenti e una generale sfiducia degli investitori. Quello più a rischio è il settore dei media. I deep fake possono essere utilizzati per creare notizie false o manipolate rendendo estremamente difficile distinguere tra verità e menzogna.

L’IA generativa richiede grandi quantità di dati per funzionare efficacemente, il che può sollevare preoccupazioni relative alla sicurezza per violazioni della privacy e abusi dei dati, aumentando il rischio di attacchi e uso improprio delle informazioni personali. Anche il settore delle risorse umane può essere colpito e i deep fake utilizzati per creare falsi colloqui di lavoro o referenze, ingannando i datori di lavoro e portando all’assunzione di individui non qualificati o con intenti malevoli. Sul fronte politico i deep fake rappresentano una minaccia diretta alla democrazia. Con immagini e video si può diffondere disinformazione, influenzare elezioni e destabilizzare governi. Questi strumenti possono essere utilizzati come armi di propaganda da Stati nazionali o gruppi terroristici, intensificando conflitti e tensioni internazionali. Un video falsificato di un leader mondiale che dichiara guerra o minaccia un’altra nazione potrebbe avere conseguenze devastanti, portando a escalation militari basate su menzogne.

Inoltre, la diffusione di deep fake può compromettere la diplomazia internazionale, rendendo più difficile verificare la veridicità delle comunicazioni ufficiali. La questione da affrontare è epocale, da molte angolature. Una di queste è tecnologica, appunto. Una delle soluzioni potrebbe essere IdentifAI, il progetto di Marco Ramilli con il co-fondatore Marco Castaldo, basato su una piattaforma tecnologica dotata di intelligenza artificiale “degenerativa”, in grado cioè di distinguere con un’elevata probabilità il vero dal falso: “Uno dei fattori-chiave, secondo la nostra visione, è l’approccio che abbiamo, conseguenza diretta della nostra precedente e significativa esperienza in ambito di integrità dell’ecosistema digitale. Pensiamo infatti che non basteranno nuove regole, come imporre ‘bollini’ di autocertificazione; il nostro è uno sguardo che va a caccia dell’antagonista che ha interesse a veicolare per vera una immagine o un video generato dall’IA, qualcuno che sarà sempre alla ricerca del modo di bypassare gli strumenti di controllo sviluppati fino a quel momento. Questa è la dinamica tipica della cyber-security, una lotta continua tra chi difende e chi attacca e un adeguamento delle tecnologie di difesa alle nuove forme di attacco. Ed è esattamente la nostra forma mentis nell’affrontare il tema del riconoscimento degli artefatti prodotti dalle IA generative”.

Un’altra significativa analogia con il mondo della cyber-security è che non potrà essere monopolizzato da uno o pochissimi grandi operatori; sia per la necessità di avere più strumenti di difesa, sia per gli aspetti di natura geopolitica che indurranno la crescita di campioni nazionali o sovranazionali, ma nei limiti delle alleanze politico-militari internazionali, come ad esempio la Nato. “È facile immaginare che una tecnologia russa o cinese non sia esattamente la benvenuta in questi contesti, ma è altrettanto agevole pensare che nessun Paese vorrà mettersi esclusivamente nelle mani di una tecnologia americana, israeliana o inglese, esattamente come succede in ambito sicurezza delle informazioni”.

(Rubrica pubblicata su Formiche 206)


×

Iscriviti alla newsletter