La posta in gioco è enorme e duplice: da un lato il controllo delle nostre ambizioni e desideri che alcuni colossi dell’informazione stanno attuando, dall’altro il ritorno ad una crescita strutturale e sostenibile dell’Europa e del Pil Europeo. Il commento di Giuseppe Colosimo, membro Società Italiana di Intelligence e Cyber Security Director di WIIT
In questo momento storico si apprezza un grande battage mediatico sull’Intelligenza Artificiale amplificato dall’utilizzo di massa di alcune tecnologie e dall’incremento del valore di diversi titoli azionari entrati d’imperio nei portafogli di fondi ed investitori. Noi stessi addetti del settore tecnologico, ad esempio, conoscevamo da tempo Nvidia per la produzione di circuiti integrati e schede grafiche innovative. In aggiunta le tecnologie Nvidia, tramite l’ausilio della IA, sono in grado di creare, calcolare e disegnare, nell’intervallo di tempo di un battito di ciglia, mondi virtuali simulati di qualità elevata superiore a quella dei nostri sogni e pressoché indistinguibili dalla realtà.
La generazione di realtà sintetiche tramite l’IA ha raggiunto traguardi molteplici: gli utenti di Internet, tramite soluzioni spesso gratuite, hanno già simulato le sembianze della donna o dell’uomo dei propri sogni, altri casi hanno distorto la realtà plagiandola ai propri scopi (cfr. sitografia caso di Google Gemini). In futuro vedremo al cinema film creati completamente dalla IA. La conclusione di quasi tutti i media è che l’IA debba essere studiata, controllata, gestita, bloccata o comunque regolamentata. Tale lettura che risulta semplificata rischia di allontanare ulteriormente l’opinione pubblica dal dibattito sulla IA rendendolo appannaggio di pochi soggetti privilegiati.
Da un lato sembra che, per questo tema, l’opinione pubblica ed i policy makers si siano svegliati a cavallo tra il 2023 ed il 2024, dall’altro noi stessi produciamo da tempo dati che vanno ad alimentare algoritmi che ci dicono cosa, quando e come comprare beni e servizi. Amazon ci profila da anni utilizzando meccanismi di machine learning o deep learning per capire cosa ci piace e fornirci indicazioni su articoli simili che rientrano nei nostri budget. Pensiamo di fare una decisione ma siamo sicuri di farla noi? Non a caso Amazon controlla la nostra filiera decisionale su acquisti, visione di film, serie televisive e, se noi lo vogliamo, può ascoltare le nostre richieste in casa ed attuarle. Possiamo comprare il caffè chiedendolo ad Alexa e domani ritirarlo in portineria. Anzi Alexa ci può dire che sta finendo il caffè e chiederci se lo può ordinare.
I nostri desideri diventano righe e righe di dati che alimentano database immensi che solo alcuni Ott (Over the top) hanno le capacità di trattare estraendo informazioni utili ai loro scopi. Netflix propone una home diversa in base al profilo ed all’età dell’utente ipotizzando proposte di film e serie in base ai contenuti già visti. La piattaforma ci informa che una serie è compatibile, ad uno specifico livello percentuale, con i nostri gusti televisivi. Facebook, Instagram sanno cosa ci piace, i video e le foto che ci destano interesse, le persone che ci piacciono, a volte prima di quanto noi stessi possiamo percepire consciamente.
Da grandi poteri derivano grandi responsabilità. Tuttavia, gli Ott incanalano dichiaratamente questi poteri per ottenere maggiori profitti. Nel campo nel quale lavoro la IA è utilizzata per difendere le Aziende, le Pubbliche amministrazioni i Pc, i server, le reti tramite la comprensione di quali possono essere i comportamenti leciti degli utenti e quelli che invece sono a rischio di attacco hacker. Le soluzioni di cyber security che fanno uso di IA, analizzano dati ed attuano misure di protezione in tempo reale diminuendo i rischi per le aziende.
Nasce una prima contrapposizione dimensionale: da un lato i dati degli individui (che quasi sempre non leggono le clausole di trattamento dei dati personali da parte dei social media) vengono trattati tramite l’IA per attuare ciò che dagli addetti viene chiamato Data Monetization, dall’altro i dati delle aziende vengono analizzati dalle IA per proteggerle. Una dimensione ulteriore può essere fornita da una casistica di utilizzo della IA emersa nel periodo del Covid durante il quale il Royal Bolton Hospital in Uk ha utilizzato l’IA per vagliare le radiografie polmonari dei pazienti, individuare i pazienti ad alto rischio e segnalare ai medici i casi critici. Si può dire che in queste casistiche l’IA ha contribuito a salvare delle vite.
A queste tre dimensioni se ne aggiunge una quarta: quella governativa. La IA viene utilizzata dall’intelligence dei più grossi Paesi sviluppati per vagliare fiumi di dati nei punti di interconnessione di Internet, comprendere se vi siano in atto rischi legati a terrorismo, reti internazionali di spionaggio, vendita di armi e droga. Sistemi complessi analizzano le comunicazioni telefoniche traducendole in dati testuali che poi vengono analizzati da sistemi di intelligenza artificiale che estrapolano informazioni significative a rischio terrorismo.
Ricordando la fiaba di Hans Christian Andersen I vestiti nuovi dell’imperatore, abbiamo dunque preso atto che il re è nudo e che la situazione è molto articolata e non ci permette di prendere una posizione netta a favore o contro l’IA. Mentre è stata avviata una discussione dei Paesi sviluppati sull’IA che sta producendo linee guida, documenti e studi; il mondo continua a girare ed i nostri dati vengono analizzati da pochi soggetti che se lo possono permettere. Riposizioniamo dunque la discussione sul fatto che la IA è un utile strumento che può fare la differenza facendo la somma di segnali deboli per desumere informazioni preziose e fondamentali per la sussistenza umana, delle aziende degli individui.
La IA, infatti, è una grande opportunità di analizzare grossi volumi di dati che noi non riusciremmo ad analizzare; pertanto, può essere definita come un amplificatore delle nostre capacità. Allo stesso tempo l’IA è un’arma potente in grado di vedere ciò che non si vede nei dati e curare interessi di gruppi di potere. Ad esempio, alcune aziende specializzate nel campo finanziario, suggeriscono agli investitori l’acquisto di titoli azionari valutati positivamente dalla IA e forniscono valutazioni comparative con il parere degli analisti di Wall Street.
Se queste analisi quantitative guidate dalla IA funzionano allora il rischio sarà che chi avrà accesso a questi potenti strumenti potrà attuare una concentrazione di capitali ampliando le diseguaglianze su scala Globale. Dall’altro lato i medici del precedente esempio, gli analisti di cyber security, i professionisti dei più disparati settori tecnologici possono concentrarsi focalizzandosi sui lavori ed attività ad alto valore aggiunto invece che sulla complessa analisi di grandi quantità di dati. Il risvolto della medaglia è che non tutti e non tutte le aziende possono permettersi strumenti di IA validi ed efficaci.
La migliore interpretazione di questa rivoluzione complessa che ci sta attraversando è che dobbiamo trovare il modo migliore di trasformare la IA da rischio in potente alleato. Elemento abilitante per conseguire tale obiettivo è l’apporto dei data scientist, recente categoria professionale in grado di individuare le giuste moli di dati da analizzare e le giuste regole per farlo. I data scientist sono in grado di applicare differenti modelli di analisi in base a categorie diverse di dati da analizzare ed agli obiettivi che si vogliono conseguire con le analisi di IA. In assenza di precisione ed accuratezza nel fare ciò la IA non sarà né rischio né alleato ma strumento inutile o peggiorativo. L’IA può essere incredibile, ma se non si sa come e dove utilizzarla è inutile.
Noi professionisti, nella convivenza con la IA, dovremo essere in grado di riposizionare le nostre conoscenze e competenze in contesti ad elevato valore aggiunto; diversamente saremo guidati dai processi decisionali ideati da qualcun altro.
Il mantra che sento giornalmente è che la IA cancellerà tante professioni in futuro. Non è corretto: la rivoluzione della IA ha già cancellato (es. Netflix ed Amazon) professioni che ormai non esistono più. Quanti noleggi di DVD conoscete? Quanti negozi fisici riescono a dare una professionalità maggiore di quella di Amazon che conosce i nostri gusti? La risposta corretta che si potrebbe dare è: “chi non fa quello che faceva prima ma chi lo fa in un modo diverso che desta interesse e crea un valore”. Mentre noi diciamo che molte professioni spariranno è già successo e ne siamo stati testimoni.
Come regolamentare tutta questa complessità?
Molte nazioni stanno emettendo policy, framework e best practices. Bruce Schneier, visionario della cyber security, in un articolo di fine 2023 ha proposto di istituire i fiduciari della IA. Enti pubblici, no profit, enti del Terzo Settore ed Università che dovranno definire modelli di utilizzo e di analisi dei dati da parte delle grandi corporazioni che ad oggi analizzano le nostre informazioni in modo incontrollato. Sarà possibile farlo? Confido nelle Istituzioni Europee che hanno sempre messo al centro i diritti dell’individuo rispetto al business, elemento centrale della cultura anglosassone. In un mondo che si sta disgregando nelle politiche nazionaliste verticali non sarà facile proporre modelli comuni di utilizzo della IA ma potrà essere un grosso mezzo da parte dell’Europa per impedire la crescita incontrollata e globale dei colossi dell’informazione.
La posta in gioco è enorme e duplice: da un lato il controllo delle nostre ambizioni e desideri che alcuni colossi dell’informazione stanno attuando, dall’altro il ritorno ad una crescita strutturale e sostenibile dell’Europa e del Pil Europeo. Non ci salverà solo l’ottimismo ma spinte di innovazione in cui il singolo individuo potrà rendersi conto di avere autonomia decisionale e non di essere uno strumento nelle mani di una Corporate globale. Le spinte innovative dovranno, nei prossimi 15 anni, avere la IA come alleato, non solo come elemento distintivo ma perché queste tecnologie differenzieranno i soggetti che guideranno il mondo nel futuro e che dovranno essere caratterizzati da: visione, sostenibilità e valori etico-morali inattaccabili.
In conclusione, poniamo al lettore un dubbio. Il mercato di massa accede a strumenti di IA in versione ridotta, depotenziata e molto controllata e li considera estremamente utili. I colossi dell’informazione che invece hanno accesso completo e con pieno potenziale a queste tecnologie potrebbero tranquillamente, grazie ad esse, diventare ancora più grandi ed imperare sulla maggior parte del mercato in tutti i settori. Cosa gli impedisce di farlo? Oppure lo stanno già facendo?
There are things known and there are things unknown, and in between are the doors of perception
Adolf Huxley, English philosopher