Skip to main content

La nascita dell’IA. Novità o tecnologia giusta al momento giusto?

Di Fabio Pompei

Fra qualche anno, quando contatteremo un servizio clienti della società del gas, della luce o telefonica via chat o telefono parleremo con una intelligenza artificiale e potremmo non saperlo. L’analisi dell’ingegner Fabio Pompei, docente universitario e giornalista

L’intelligenza artificiale (IA) è sempre più presente nelle nostre vite, se ne parla molto in questi ultimi anni, ma in realtà è una tecnologia che esiste e si evolve da molti anni. La nascita effettiva della disciplina si fa risalire al 1956, nel New Hampshire, al Dartmouth College, si tenne un convegno al quale presero parte alcune delle figure di spicco del nascente campo della computazione dedicata allo sviluppo di sistemi intelligenti. Le prime grandi aspettative si avranno tra il 1950 e il 1965 per poi arrivare a delle prime difficoltà legate anche ai limiti dell’hardware di allora.

Dagli anni Duemila, con la diffusione dell’utilizzo di PC e di Internet, la tecnologia si è evoluta fino ad oggi con algoritmi sempre più complessi e in grado di “fare” attività sempre più articolate per una macchina.

L’evoluzione dell’ecosistema

L’evoluzione in questi ultimi 20 anni è stata frutto di un susseguirsi di innovazioni ed evoluzioni hardware, software e delle telecomunicazioni, tutte legate e correlate tra loro. L’aumento esponenziale della capacità di calcolo dei processori ha permesso alle software house di realizzare software sempre più performanti, mentre l’evoluzione del canale trasmissivo delle telecomunicazioni ha permesso di realizzare siti e servizi web, successivamente di introdurre i concetti di calcolo distribuito su più macchine e distribuzione dell’informazioni su più server/cloud.

Intelligenza artificiale: l’algoritmo e l’apprendimento

L’intelligenza artificiale però non è solo un algoritmo più evoluto rispetto ai software realizzati negli anni precedenti, ma rappresenta un cambio di paradigma che introduce il concetto di apprendimento e di adattamento all’ambiente che lo circonda, il software quindi non si comporta più in modo sempre uguale ma inizia a variare le sue operazioni e le sue scelte in base alle informazioni che di volta in volta acquisisce. Va sottolineato che qualsiasi decisione che deve essere presa (da un uomo o da una macchina) è quanto più precisa quanto maggiori sono le informazioni che possono essere analizzate, informazioni che non sono sempre costanti ma che variano nel tempo.

Il valore dei dati nell’ecosistema digitale e per l’Intelligenza artificiale

Si rende necessaria quindi una vera e propria corsa all’aumento di informazioni e di basi dati. In una fase iniziale erano sufficienti database che sono diventati sempre più grandi e col tempo si sono trasformati in datawarehouse per poter raccogliere un numero sempre maggiore di dati; con il crescere della necessità di informazioni questi sono diventati big data con informazioni spesso non strutturate e distribuite su più cloud, con il vantaggio di poter raccogliere molte più informazioni ma con maggior difficoltà ad estrarre le singole informazioni di interesse da quello che ormai è diventato un datalake (un lago di informazioni).

Uno dei temi fondamentali, quindi, rimane quello legato ai dati, alle informazioni che sono necessarie per poter effettuare classificazioni, aggregazioni, statistiche, ecc. dalle quali nascono e si adattano gli algoritmi dell’intelligenza artificiale. Il tema dei dati è quindi un elemento da valorizzare: i dati hanno un valore, un costo e nella maggior parte dei casi siamo noi stessi a fornire a fronte di un bene o di un servizio che sembrerebbe essere “gratuito” (ad esempio, l’utilizzo di una casella di posta elettronica – che pensiamo essere gratuita- consente al fornitore di “leggere” i nostri messaggi per capire quali sono le nostre preferenze e indirizzarci così le reclami del caso).

L’intelligenza artificiale e l’apprendimento

L’intelligenza artificiale introduce un nuovo meccanismo di apprendimento: il dato non è solo raccolto tramite il classico data ingestion – processo di trasporto dei dati da una o più fonti a un sito di destinazione – (che soffre di costi e performante non ottimali) ma tramite un meccanismo in cui il software legge le informazioni che gli sono intorno e le “impara” tramite meccanismi di deep learning e machine learning.

Vi è stato quindi un cambio di paradigma nella classica matrice CRUD: finora il software era autonomo solo sulla parte “R” cioè Read (lettura), mentre le altre azioni venivano fatte sulla base delle scelte e delle azioni dell’utente. Con l’apprendimento automatico il sistema è in grado di andare ad inserire e creare delle informazioni che non c’erano (“C” Create), di aggiornare delle informazioni già esistenti magari perché obsolete o perché incomplete (“U” Update) oppure di eliminarne alcune perché non più attuali o inutili (“D” Delete).

Le fonti e le reti neurali

Per fare questo l’intelligenza artificiale apprende da documenti, da immagini, da video e tramite algoritmi di data mining riesce ad estrarre le informazioni che gli sono utili ovvero solo quelle che sono vicine al suo scopo tramite l’approccio delle reti neurali il che consente di identificare l’informazione “utile” e collegata ad un determinato argomento (nodo neurale).

Per poter interagire con le persone l’intelligenza artificiale ha avuto bisogno di avere ulteriori interfacce rispetto alle tradizionali interfacce grafiche (GUI) finora usate da computer, tablet e smartphone, è stato introdotto e via via perfezionato, l’NLU (Natural Language Understanding): l’interpretazione e la comprensione del testo non più come una comprensione delle singole parole, ma come identificazione di entità e intenti che determinano argomenti e nodi neurali. Parallelamente si sono evoluti il text to speech e lo speech to text: il sistema di sintesi vocale che permette la conversione del testo in parlato ed il parlato in testo.

Questi ultimi passi avanti hanno permesso sempre di più l’utilizzo di assistenti virtuali (tra cui chatbot e voicebot) che diventano sempre più performanti ed in alcuni casi l’utente non riesce a distinguere se dall’altra parte sta scrivendo (o parlando) una persona umana o un bot.

Ma come provare una intelligenza artificiale?

Fra qualche anno, quando contatteremo un servizio clienti della società del gas, della luce o telefonica via chat o telefono parleremo con una intelligenza artificiale e potremmo non saperlo. Esiste una applicazione web che mette alla prova gli utenti e chiede loro di capire se stanno parlando con una Intelligenza artificiale o con un essere umano da qualche parte nel mondo che sta tentando di fare la stessa. L’applicazione è fruibile sul web al seguente link: https://www.humanornot.ai/.

Human or Not?, sviluppato da AI21 Labs, si autodefinisce un “gioco di Turing sociale” in riferimento al famoso test sviluppato dal matematico Alan Turing per verificare se le “macchine” possono mostrare un comportamento intelligente simile a quello umano.

Il gioco si svolge su una semplice chat di testo (a breve potrebbero uscire delle versioni vocali) di due minuti. Il giocatore scambia brevi messaggi con un’altra parte sconosciuta e, alla fine della conversazione, deve indovinare se stava parlando con una persona reale o con un’intelligenza artificiale. C’è poi il fenomeno ChatGPT ChatGPT: un chatbot basato su intelligenza artificiale e apprendimento automatico sviluppato da OpenAI specializzato nella conversazione con un utente umano. La sigla GPT sta per Generative Pre-trained Transformer, una tecnologia nuova applicata al machine learning.

L’impatto normativo ed etico

È opinione di tutti, compresi i legislatori, che prima di prendere piede in maniera massiva, l’IA vada studiata, compresa e regolamentata. Accanto, dunque, agli innumerevoli benefici, già da qualche tempo le istituzioni comunitarie ha acceso un faro su tale tecnologia, nella convinzione che l’UE debba svolgere un ruolo guida sul futuro dell’IA, orientando il dibattito pubblico sull’uso dell’intelligenza artificiale e ponendo alcune questioni etiche e giuridiche cruciali. Il precipitato di queste riflessioni è stato quello che viene chiamato “AI Act”, ovvero una proposta della Commissione guidata da Ursula von der Leyen nel 2021 e attualmente allo scrutinio del Parlamento UE (COM(2021) 206 final). I rischi, infatti, non sono da sottovalutare. I parlamentari hanno espresso viva preoccupazione per la ricerca militare e gli sviluppi tecnologici per la creazione di sistemi d’arma letali autonomi, oltre che per la minaccia alla libertà personale, riservatezza dei dati e rischio di sorveglianza di massa.

In Europa, per effetto delle nuove norme in arrivo, verosimilmente assisteremo ad un uso più ordinato dell’Intelligenza artificiale. L’11 maggio scorso, il Parlamento europeo ha dato il primo disco verde all’IA Act, approvando una serie di proposte modificative grazie alle quali verranno posti maggiori limiti alle tecnologie di riconoscimento facciale (ritenuto, come visto e a ragione, una delle maggiori minacce per la tutela dei diritti fondamentali dei cittadini), ma non soltanto. Si affaccia, anche in Europa, il divieto del riconoscimento biometrico in tempo reale nei luoghi pubblici, insieme ad un set di previsioni tese a garantire che i sistemi di AI siano supervisionati dalle persone, sicuri, trasparenti, tracciabili, non discriminatori e rispettosi dell’ambiente. Palla, adesso, alla Plenaria in programma tra il 12 e il 15 giugno, per poi dare avvio ai dialoghi con il Consiglio e la Commissione, così da chiudere la regolamentazione il prossimo anno.

×

Iscriviti alla newsletter