Skip to main content

Intelligenza artificiale, rileggere la storia per evitare un nuovo inverno

Di Federico Berger

In totale, si stima che tra il 2016 e il 2026 il settore dell’Ia avrà un impatto economico tra gli 1,5 e i 3 trilioni di dollari. Ma non mancano le sfide. L’analisi di Federico Berger, esperto di social media intelligence

Da quando Alan Turing (considerato universalmente vero e proprio padre della materia) pubblicò nel 1950 quello che è probabilmente il suo articolo più celebre “Computing and Machinery Intelligence” e il ben più celebre “Imitation Game”, l’Intelligenza artificiale (Ia) ha sperimentato un vero e proprio ottovolante tra successi storici e scetticismo diffuso.

Una volta fugati i dubbi iniziali legati a costi elevati delle macchine e a limiti fisici delle stesse, a partire dagli anni Cinquanta fino ad arrivare a metà degli anni Settanta il settore dell’Ia conobbe un vero e proprio boom. Questo soprattutto grazie a programmi di ricerca dedicati, portati avanti da diverse entità e finanziati da agenzie governative come l’agenzia Defense advanced research project agency (Darpa) del dipartimento della Difesa statunitense. Appare evidente come, fin dagli albori, il settore della difesa e della sicurezza abbia avuto un interesse particolare per il tema.

Negli anni della legge di Gordon Moore (1965), il positivismo nei confronti dell’Ia era talmente radicato e diffuso al punto che gran parte della comunità scientifica era convinta che le macchine avrebbero addirittura superato gli esseri umani in tempi brevi. Entrò a gran forza nel dibattito il concetto di Intelligenza artificiale “forte” o “generale”: grazie ai fulminei progressi tecnologici, le macchine non solo sarebbero state in grado di risolvere problemi complessi per l’uomo, ma anche di replicare, se non sorpassare, l’intelligenza umana.

Gli entusiasmi furono rapidamente smorzati dal primo “inverno dell’Ia”, uno specifico periodo di tempo a cavallo tra la fine degli anni Settanta e i primi anni Ottanta dominato dal pessimismo scientifico nei confronti di questi sistemi e da una drastica riduzione dei fondi destinati alla ricerca. Ben presto, gli scienziati si scontrarono con l’impossibilità di ottenere risultati sostanziali: le macchine mancavano di potenza computazionale, precludendo la possibilità di processare le informazioni in tempi brevi o immagazzinare una consistente quantità di dati in maniera appropriata. A completare il quadro, i risultati non erano comunicati in maniera efficace all’operatore e potevano essere interpretati solo da informatici di alto livello.

Ma a partire dagli anni Ottanta, da un lato la popolarizzazione delle tecniche di machine learning e deep learning (capaci di fare previsioni accurate basandosi su operazioni ripetute ed esperienza), dall’altro i cosiddetti expert system (che imitano la catena decisionale degli umani) diedero nuova linfa al settore. Queste tecnologie scongelarono l’inverno dell’intelligenza artificiale, attraendo un nuovo flusso di investimenti, in particolare dal settore della difesa. Partendo ad esempio dagli expert system già impiegati nel settore privato, progetti come il Fifth generation computer project (o Fgcp) del governo giapponese avevano il chiaro scopo di modernizzare i processori e implementare il logic programming anche in ambito istituzionale.

Nonostante gran parte degli obiettivi non siano stati raggiunti, la seconda ondata dell’Ia ha posto le basi per le nuove frontiere della ricerca e ispirato una nuova generazione di ricercatori tra la fine del secolo scorso e il primo decennio del nuovo millennio. A prescindere dal fatto che, dati gli incredibili progressi in ambito computazionale, parte della comunità scientifica sia convinta che l’Ia generale arriverà in tempi brevi, gran parte dei compartimenti di ricerca e sviluppo si stanno dirigendo in altre direzioni.

Con l’utilizzo di deep learning ed expert system, il focus di settore è orientato verso la cosiddetta Ia “debole” o “narrow”, sistemi in grado di gestire un singolo o un numero limitato di compiti. Ma non solo l’approccio degli studiosi e dei professionisti sta virando verso un approccio più bilanciato e realistico. Questo tipo di tecnologie risulta particolarmente flessibile e precisa nelle sue applicazioni pratiche, stimolando l’interesse sia del mondo dell’industria e del business, sia del settore pubblico. In totale, si stima che tra il 2016 e il 2026 il settore dell’Ia avrà un impatto economico tra gli 1,5 e i 3 trilioni di dollari.

E se oggi la potenza computazionale, i software, le tecniche di machine learning e l’incontenibile abbondanza di dati disponibili consentono alle macchine di assolvere compiti complessi (come guidare un’auto, identificare animali o volti umani, tradurre un testo in qualsiasi lingua, o rilevare i tumori), guardando al domani c’è ancora un enorme potenziale inesplorato. Come dichiarato da Edward Grefenstette, ricercatore del gruppo Meta, “una delle più grandi sfide è quella di sviluppare metodi che siano estremamente efficienti in termini di quantità di dati e potenza computazionale richiesta per risolvere correttamente un problema”, piuttosto che concentrarsi su sistemi in grado di dare una soluzione a tutti i problemi. Il rischio, altrimenti, è quello di cadere in un nuovo inverno.

(Questo articolo è ispirato a un research paper pubblicato per la NATO Foundation)


×

Iscriviti alla newsletter