“Se non fosse al servizio e a beneficio dell’umanità, la robotica non avrebbe senso”. Intervista al prof. Bruno Siciliano, che a Formiche.net spiega la vera sfida della ricerca sui robot: l’intersezione con l’intelligenza artificiale, lì dove i modelli cognitivi incontrano l’esperienza sensoriale. Il rapporto uomo-macchina? “Sarà solo collaborativo”

Il professor Bruno Siciliano è uno dei massimi esperti di robotica. Professore ordinario di automatica all’Università Federico II di Napoli, coordinatore del Prisma Lab che si occupa di servizi e prodotti industriali derivanti dall’automazione, direttore di Icaros, il centro interdipartimentale per la ricerca avanzata sulla chirurgia robotica, nonché ingegnere con una carriera costellata di incarichi, riconoscimenti e collaborazioni anche oltre i confini europei. A lui abbiamo chiesto quando lavoreremo fianco a fianco con i robot, apparsi in tutta la loro agilità nel video (virale) di auguri di Boston Dynamics. La vera sfida, ci ha spiegato, sarà coniugare la robotica con l’intelligenza artificiale, integrando modelli matematici con il processo di apprendimento tipicamente umano.

Professore, il video di auguri dei robot di Boston Dynamics sta facendo il giro del web. Diverse macchine ballano con agilità sorprendente. Ma a che punto siamo davvero con la robotica?

È un video sicuramente spettacolare, con tanto di coreografia e movimenti che sembrano del tutto naturali da parte dei robot. Chiaramente si tratta di un video preparato e montato, probabilmente dopo diversi fuori-onda tra errori e cadute. Non siamo infatti ancora al livello di bipedi o quadrupedi totalmente autonomi e affidabili. Conosco bene Boston Dynamis e il ceo Marc Raibert; li ho praticamente visti crescere, dai lavori per la Darpa (l’agenzia che si occupa della ricerca avanzata al Pentagono, ndr) al passaggio in Google. Poi sono stati acquistati dal gruppo giapponese SoftBank, mentre solo da poche settimana sono passati alla coreana Hyundai. Tutto questo è abbastanza indicativo.

Ci spieghi meglio.

Sono ormai parecchi i gruppi industriali asiatici che hanno il coraggio di fare salti tecnologici in avanti nel campo della robotica. Il più noto umanoide al mondo è Asimo, sviluppato dalla Honda. Considerando Atlas di Boston Dynamics (oggi in Hyundai) bisognerebbe chiedersi come mai realtà automobilistiche puntino così tanto su progetti che non sembrano avere una ricaduta immediata sulla tecnologia.

Secondo lei perché?

Perché lavorare su una piattaforma molto avanzata ha comunque ricadute su prodotti commerciali. Hyundai lavora su sistemi in cui dalla macchina si può gestire una casa domotica. Strumentazioni applicate al volante permettono cioè di interagire con tutto quello che avviene nell’abitazione, e su questo la robotica può dare una grande mano. Per il bilanciamento di bipedi come Atlas e Asimo si usa la tecnica ZMP, acronimo di “zero moment point”, secondo cui il centro di massa complessiva deve sempre essere all’interno dell’ingombro del corpo, così da non generare “momento”, che è quello che porta allo sbilanciamento. Honda con Asimo ha fatto da questo punto di vista delle cose incredibili. Il robot ha un suo show molto coreografico (apparso anche a Disneyland) e interagisce con gli essere umani con comportamento antropico. L’aspetto meno noto è che quanto sviluppato con Asimo in termini di ZMP è stato riversato in un prodotto commerciale, un monociclo per la mobilità rapida tipo segway a singola ruota che si adatta ergonomicamente al peso e alla postura dell’utente.

Parliamo di applicazioni. Quanto sono utilizzati oggi questi robot?

Quadrupedi e bipedi non sono ancora allo stato maturo. Ben vengano coreografie spettacolari che ci proiettano verso il futuro, ma oggi la maggioranza dei robot utilizzati è ancora su ruote. Guardando alle applicazioni, è chiaro che le ruote impongono delle limitazioni, ad esempio quando si tratta di terreni sconnessi. È per questo che i colleghi del Politecnico di Zurigo hanno sviluppato una versione del noto quadrupede Anymal con ruote a pantografo, che vengono estruse quando si deve andare più veloci su terreni piatti, e che lasciano il posto alle gambe per percorrere ad esempio scenari post-catastrofe su macerie.

Boston Dynamics ha già commercializzato il suo quadrupede Spot…

Anche la start up dell’ETH di Zurigo vende Anymal, a dimostrazione che un mercato già esiste. Tuttavia, sono robot acquistati soprattutto da chi fa ricerca per testare algoritmi di controllo e pianificazione. Fare test su un robot con gambe è molto più sfidante rispetto a farlo con un veicolo su ruote.

E se non avessero né gambe né ruote, ma volassero?

È una grande area di sviluppo su cui siamo in prima linea con Prisma Lab. Tipicamente i droni non facevano parte della robotica, almeno fino a quando non si è capito che oltre a essere un occhio volante potevano anche essere una “mano volante”. Negli ultimi dieci anni abbiamo sviluppato otto progetti di ricerca europei in tema di “aerial robotics”. Si tratta di sistemi volanti, capaci di utilizzare la terza dimensione rispetto ai “ground robot”.

A che punto siete in termini applicativi?

Consideri che stiamo già facendo attività per Eni di ispezione di piattaforme off-shore. Per la GE Oil & Gas di Massa (ex Nuovo Pignone) abbiamo un robot che vola, atterra sulla condotta e può eseguire misure di spessimetria, verificando lo stato di consumo delle tubature. Si tratta evidentemente di applicazioni con forte rilevanza industriale per attività che per l’uomo sarebbero pericolose e dispendiose. Anche nel settore della logistica si usano ormai non solo robot su ruote. È noto lo sviluppo di droni per le consegne in luoghi difficilmente raggiungibili via terra.

A livello di controllo, invece, quando questi robot potranno essere davvero autonomi, dotati di intelligenza artificiale?

Questa è la vera sfida: il controllo. Spesso si parla indifferentemente di robotica e intelligenza artificiale, come se fossero due sinonimi. Evidentemente non è così. L’IA è la capacità da parte di un computer di replicare l’intelligenza umana; si fonda su algoritmi intelligenti (il cervello) e sulla parte percettiva (i sensi) ricevendo informazioni dai sensori. La robotica dà la dimensione fisica come “connessione intelligente tra percezione e azione”. Ma se metto insieme la parte del pensiero con la parte fisica, sorgono dei problemi.

Quali?

La vista e il tatto sono i sensi più importanti per l’uomo. Per la prima è possibile trasportare tranquillamente un’enorme quantità di dati sensoriali sulla rete (siamo pieni di immagini e video). Sul tatto invece serve l’interazione fisica, perché si attiva al contatto, è molto più soggettivo e legato all’esperienza sensoriale della persona che ha avuto quella specifica esperienza. Trasportare l’informazione sensoriale in grosse quantità è molto più arduo. In tal senso la vera sfida si trova all’intersezione tra robotica e intelligenza artificiale, lì dove si aggiunge la dimensione fisica. Un conto è sviluppare un algoritmo tipo Watson per il trattamento di dati medici, tutto digitale; un altro conto è aggiungere la dimensione fisica. In questo secondo caso sarebbe perdente non tenere conto di modelli matematici che consentono di avere l’emulazione di un sistema fisico.

Significa replicare quanto avviene per l’uomo?

Significa sviluppare delle tecniche di controllo ibride, in parte model-based (cioè basate su modelli matematico-fisici), in parte data-driven (cioè guidate dai dati). Piuttosto che fare deep-learning al buio, si deve procedere attraverso reinforcement-learning, apprendimento per rinforzo.

Come avviene?

C’è un modello matematico di base con cui si descrive il sistema e si cerca di farlo apprendere dall’esperienza, arricchendo la conoscenza matematico-fisica con grosse quantità di dati che si possono raccogliere e correlare anche attraverso i failure. Serve che il sistema tolleri i guasti, che li comprenda e li faccia propri. Il nostro cervello funziona proprio così, sin da quando siamo piccoli.

Sta dicendo che il robot deve crescere?

In qualche modo sì, diventando sempre più performante. D’altra parte, nell’uomo, oltre l’intelligenza cognitiva e neuronale, c’è un concetto di embodiment, cioè di cognizione incorporata nel sistema fisico che occorre riversare nei robot. Ripeto: un conto è fare un computer che riesca a battere un campione di scacchi, un altro è fare un sistema di controllo per un bipede come Atlas. Per questo occorre coniugare l’azione fisica con l’informazione, intesa come cognizione-intelligenza-percezione. Ecco, io credo che la fusione di due approcci (model-based e data-driven) sia la vera sfida della ricerca robotica.

Immaginiamo di riuscire a superare la sfida, e di avere dunque robot intelligenti. Che rapporto immagina con l’essere umano?

Immagino robot-compagni, da impiegare per lavori ripetitivi, alienanti e pericolosi, dallo sminamento all’ispezione di zone disastrate, dalla logistica ai trasporti. Problemi maggiori si pongono per le attività che richiedono “antropizzazione del robot”, ad esempio l’utilizzo in campo alimentare. Un domani nella brigata di uno chef stellato potrebbe tranquillamente esserci un robot, capace ad esempio di rispettare la maniacalità di impiattamento alla perfezione. Ma un robot non sostituirà mai lo chef, perché la creatività sarà sempre dell’uomo. Lo stesso vale per il campo medico.

Non ci saranno robot-medici?

Per alcune operazioni automatiche e ripetitive ci potranno essere robot-infermieri, ma il tecnico specializzato in medicina non potrà mai essere sostituito. Faccio notare che utilizziamo già robot in campo medico: sono gli eso-scheletri che permettono la riabilitazione di pazienti colpiti da ictus, oppure che permettono di ridurre i disturbi muscolo-scheletrici per tutti coloro che fanno lavori manuali usuranti. È un’applicazione, non una sostituzione, che passa tra l’altro per una serie di valutazioni che vanno oltre la tecnica, e che attengono alla deontologia, alla legalità e all’etica.

Spesso i critici lamentano che si perderanno comunque posti di lavoro a causa dei robot…

Su questo occorre essere chiari: non si perderà lavoro, si cambierà. Verranno ridotti i posti di lavoro ripetitivi, alienanti e pericolosi. Ma la tecnologia alzerà l’asticella, creando nuove opportunità occupazionali. D’altra parte al centro ci sarà sempre l’uomo. La robotica potrà dare ausilio, ma non sostituire. Lo dimostra Amazon: sulle linee di smistamento ha installato centinaia di migliaia di robot; non ci sono stati però licenziamenti, ma piuttosto nuove assunzioni con un’enorme riconversione in sviluppatori di applicazioni. Se non fosse al servizio e a beneficio dell’umanità, la robotica non avrebbe senso.

In conclusione, quando sarà normale lavorare con un robot al fianco?

Difficile dare un orizzonte temporale. Io credo che la tecnologia sarà davvero matura quando tali sistemi saranno “plug and play”, cioè immediati all’utente, senza bisogno di una laurea in ingegneria o di un manuale di istruzioni, come è oggi uno smartphone. Potrebbe accadere nel giro di venti o trent’anni. Intanto però si sarà già allargato a dismisura il campo di applicazione. Il futuro della robotica si giocherà nel dialogo con altre comunità scientifiche, su possibili impieghi che al momento non possiamo neanche immaginare.

Condividi tramite