Intelligenza Artificiale è una terminologia specificamente inventata, nel 1956, da John McCarthy, e riguarda l’abilità di fare generalizzazioni appropriate in tempi rapidi, ma basate su un set di dati inevitabilmente limitato. Tanto maggiore è il campo di applicazione e tanto più rapidamente sono derivate le conclusioni, e con informazione minima, tanto più intelligente è definibile il comportamento della macchina. Intelligenza è l’adattamento creativo a cambiamenti rapidi dell’ambiente, questa è la definizione ormai classica, ma in questo caso, con le macchine, si valuta anche la rapidità e la base sempre più ristretta dei dati di partenza.
E se i dati di partenza non contenessero, il che è possibile, proprio l’informazione necessaria? E se, ancora, la rapidità della soluzione derivasse dal fatto che i dati raccolti sono troppo omogenei e non contengano i dati maggiormente interessanti? Konrad Lorenz, il fondatore dell’etologia animale, era sempre molto attento nel sostenere che tra comportamenti istintivi e comportamento appreso, le fonti esterne ambientali e quelle genetiche possono essere egualmente “intelligenti”, ma il fatto è che la maggiore flessibilità, sempre in tempi ragionevoli ma non il più rapidamente possibile, di un comportamento genera una maggiore intelligenza dell’animale.
Gli esseri umani sono, come diceva un grande allievo di Lorenz, Nikko Tinbergen, “delle gazze rappresentazionali”, ovvero egli voleva dire che molta della loro storia genetica e informativa non ha valore pratico.
Quando la raccolta delle informazioni diviene facile, la gazza “adattativa” ha un comportamento molto adattativo, ma quando la raccolta dati è al massimo possibile, allora tutti i dati contano, e non sappiamo mai quali, tra questi dati, saranno messi davvero in azione. Ovvero, la elaborazione dati delle macchine è una “competenza senza comprensione”, a meno che alle macchine non siano dati tutti i sensi. Il che è, oggi, possibile. L’intelligenza umana è definita quando siamo all’estremo della acquisizione dati fisicamente possibile, ovvero quando singoli individui imparano un comportamento adattativo-innovativo dalla imitazione diretta di regole astratte.
Regole astratte, non segnali ambientali a caso. Se le macchine potessero raggiungere questo livello, esse avrebbero necessità di un tale grado di libertà di espressione che, oggi, nessuna macchina può raggiungere, anche perché nessuno sa come ci si arriva, a questo livello; e come si codifica successivamente questo comportamento.
E se non fosse codificabile in alcun modo? La standardizzazione di operazioni “se-allora” che potrebbero mimare gli istinti, e di operazioni finalizzate (che potrebbero apparire come un imprinting lorenziano acquisito) è solo una espansione quantitativa di quello che chiamiamo “intelligenza”, ma non ne cambia la natura, che è sempre un venir dopo il particolare nesso umano tra istinto, intelligenza, learning by doing.
Che ha sempre una base accidentale, statistica, imprevedibile. Quale sarà l’anatra che chiamerà per prima Konrad Lorenz “papà”, creando un condizionamento per le altre? Non lo può predire nessuno. La bio-imitazione potrebbe essere, se sistematizzata, un modo di produrre in futuro macchine senzienti che possono costruire il loro, unico e irripetibile, modo intelligente di reagire all’ambiente e quindi di creare un unico e solo comportamento intelligente. Sarà unico?
Ma torniamo alle macchine della Intelligenza Artificiale e al loro funzionamento.
Negli anni ’80 si assiste a una grande fase di investimenti, la prima, nel settore AI, con l’Alvey Program britannico, il Darpa statunitense che spende da solo un miliardo di dollari sulla sua Strategic Computing Initiative, i giapponesi, infine, che spendono cifre comparabili nel loro Fifth Generation Computer Project. C’è, in quegli anni, il boom dei “sistemi esperti”, ovvero dei meccanismi simbolici che risolvono i problemi, ma in un ambito precedentemente definito.
I sistemi esperti furono, fin dall’inizio, utilizzati nel trading finanziario.
Ci fu la mano dell’expert system nella caduta di 508 punti del Dow Jones Industrial Average, nel 1987, ma nel 1990 inizia l’utilizzo della Intelligenza Artificiale anche nell’analisi delle truffe finanziarie, con un programma ad hoc utilizzato dal Fincen, Financial Crimes Enforcement Network, soprattutto con la possibilità, fin da allora, di revisionare automaticamente 200.000 transazioni alla settimana e di identificare, sempre in sette giorni, oltre 400 operazioni illecite.
Il machine learning, il modello su cui si basa la più utilizzata tecnologia finanziaria AI, si basa su un lavoro di McCullogh e Pitts del 1943, testo in cui si scopre che il cervello umano produce segnali che sono di per sé digitali e binari. Un sistema di machine learning è formato, in linea di massima, da: 1) un problema, 2) una fonte di dati, 3) un modello, 4) un algoritmo per l’ottimizzazione, 5) un sistema di validazione e prova.
Nel 2011 si aggiunge, alle altre tecniche “esperte”, il deep learning. Che è un modo in cui le macchine usano algoritmi che operano in vari livelli separati, come accade nel reale cervello umano; e quindi il deep learning è una tecnica statistica per trovare paradigmi accettabilmente stabili in una vastissima congerie di dati. Imitando il nostro cervello e la sua struttura a layers, aree e settori. Si tratta, ritorniamo ai nostri discorsi di partenza, di un meccanismo che “mima”, senza elaborarlo, il funzionamento del cervello umano.
Il Dl può analizzare per la prima volta eventi non-lineari, come per esempio la volatilità dei mercati, ma il suo vero problema è la verifica dei modelli: Knight Capital ha perso 440 milioni di usd in 45 minuti, nel 2004, perché ha messo in azione un modello di DL e di trading finanziario che non era stato provato prima. Nel 2013 Goldman Sachs, in un blocco dei computer di soli 13 minuti, ha invaso il mercato finanziario Usa con richieste di acquisto per 800.000 equities; e la stessa settimana la cinese Everbright Securities ha acquistato, sempre per un errore del computer, 4 miliardi di varie azioni sul mercato di Shangai, ma senza una motivazione precisa.
Tra il 2012 e il 2016, gli Usa hanno investito in Intelligenza Artificiale 18,2 miliardi di usd, mentre la Cina ne ha messi, nello stesso periodo, solo 2,6 e 850 milioni di usd sono stati investiti nel Regno Unito. Il Fondo governativo giapponese per l’Investimento dei Risparmi Pensionistici, il più grande manager mondiale di fondi pensionistici, appunto, pensa di poter sostituire presto i manager “umani” con sistemi evoluti di Intelligenza Artificiale. BlackRock ha appena organizzato un AILab.
Nel 2017, la Cina ha comunque superato gli Usa per il numero di startup in AI, con 15,2 miliardi di finanziamenti. La Cina ha oggi il 68% delle startup di Intelligenza artificiale di tutta l’Asia, raccogliendo sui mercati 1,345 miliardi di usd per il loro decollo.
Pechino ha poi superato gli Usa per il numero di brevetti in Intelligenza Artificiale negli ultimi cinque anni. Ma, insieme, Usa e Cina fanno ancora oltre il 50% di tutti i brevetti AI mondiali. La Cina, poi, domina il mercato dei brevetti sui sistemi di visione di tecnologia AI, mentre i sistemi di elaborazione dati di deep learning sono ormai preda delle grandi aziende globali del settore, Microsoft, Google, Ibm e le similari reti cinesi elaborano rapidamente i loro nuovi sistemi di raccolta dati “intelligente”, favoriti anche dal fatto che la popolazione cinese è circa il doppio di quella Usa e, quindi, la massa dei dati di partenza è colossale.
L’intelligence industry zone cinese vicino a Tianjing è già attiva.
Ma, alla fine, come l’Intelligenza Artificiale modifica il settore finanziario? La AI opera, soprattutto nell’ambito del trading di titoli e valute, in vari ambiti: il trading algoritmico, la composizione e la ottimizzazione dei portafogli, poi la validazione di modelli di investimento, la verifica delle operazioni-chiave, poi ancora il robo-advising, la consulenza robotizzata, l’analisi dell’impatto sui mercati, l’efficacia delle regolamentazioni, infine le valutazioni bancarie standard e l’analisi del trading dei concorrenti.
Per quel che riguarda il trading algoritmico, esso è un vero e proprio sistema automatico di transazione, si tratta qui di un programma di Machine Learning che impara la struttura dei dati delle transazioni, e che quindi tenta di predire ciò che avverrà.
Oggi i computer generano già il 70% delle transazioni dei mercati finanziari, il 65% delle operazioni sui mercati dei futures e il 52% di quelle sul mercato dei titoli del debito pubblico. Si tratta, qui, di fare operazioni al migliore prezzo possibile, con una ridottissima probabilità di fare errori e con, inoltre, la possibilità di verificare simultaneamente differenti condizioni di mercato oltre ad evitare gli errori di carattere psicologico o le inclinazioni personali. Il trading algoritmico riguarda, in particolare, le operazioni degli hedge funds, e le operazioni dei più importanti clienti di una banca o di un Fondo.
Qui ci sono poi altre tecniche matematiche di AI che qui sono in gioco. C’è, infatti, il signal processing, che opera filtrando i dati per eliminare gli elementi di disturbo e osservare le linee di sviluppo di un mercato. Poi abbiamo il market sentiment. Qui il computer viene lasciato del tutto ignaro delle operazioni in corso, fino a che l’algoritmo specifico viene messo all’opera, e allora la macchina percepisce subito i comportamenti della domanda e dell’offerta. Poi c’è ancora il news reader, un programma che impara a leggere i principali fenomeni sociali e politici, ma qui viene anche il pattern recognition, un algoritmo che insegna alla macchina ad imparare e a reagire quando si mostrano, nei mercati, dei tratti che permettono degli immediati guadagni.
C’è inoltre disponibile un algoritmo, sviluppato da una società di informatica privata, negli Usa, che processa milioni di “data points” per scoprire modelli di investimento o tendenze spontanee dei mercati, e che opera su trilioni di scenari finanziari, dai quali elabora gli scenari ritenuti reali. Qui si riducono, in effetti, 1800 giorni di trading fisico a sette minuti. E, comunque, gli algoritmi elaborati a partire dall’evidenza funzionano molto meglio nel predire il futuro degli operatori umani. E la Intelligenza Artificiale funziona come generatore di predizioni anche nel mercato finanziario più antico, quello dell’immobiliare.
Oggi, per esempio, vi è un algoritmo, elaborato da una società tedesca, che “estrae” automaticamente i dati più importanti dai documenti solitamente usati per valutare le reali transazioni immobiliari. A Singapore, l’Intelligenza Artificiale viene utilizzata per calcolare il valore di una proprietà immobiliare, con un mix di algoritmi e di analisi di mercato comparativa. L’uomo non ci entra per niente. Per la corporate governance, ci sono programmi AI che selezionano i dirigenti sulla base della loro performance, analizzata con estrema attenzione.
C’è qui all’opera il mito scientista e ingenuo della esclusione della soggettività, vista come sempre negativa, certamente, ma il programma è estremamente analitico e ricco di variabili. Poi, l’Intelligenza Artificiale opera anche nel mercato dei prestiti e delle ipoteche, dove gli algoritmi possono essere elaborati a partire da una infinità di dati riguardanti i clienti (età, lavoro, sesso, malattie ricorrenti, stili di vita, etc.) e vengono collegati alle operazioni, sempre tramite un algoritmo, che sono ordinate, senza saperlo, dal proprio cellulare o dal computer. Fin qui gli algoritmi di Intelligenza Artificiale.
Ma c’è anche, molto attivo già da oggi, il Quantum computing. La sua velocità è irraggiungibile dagli attuali computer “tradizionali”. Si tratta di una tecnologia più adatta delle altre a risolvere i problemi e le previsioni finanziarie, poiché il Qc opera co variabili realmente casuali, mentre i vecchi algoritmi semplicemente simulano le variabili casuali. Il Quantum computing può elaborare simultaneamente diversi procedimenti, e questi “stati di coesistenza” sono definiti come qubits.
In una analisi di scenario il Qc può valutare un insieme potenzialmente infinito di soluzioni e risultati che sono stati generati casualmente. Una macchina estremamente potente, che però non può stabilire esattamente, come peraltro accade anche a macchine più lente, se lo scenario elaborato è corrispondente agli interessi umani (ma solo a quelli iniziali conosciuti dalla macchina) o se la procedura non cambia durante le operazioni.