Skip to main content

L’AI esce dallo schermo e mette i piedi per terra. Siamo pronti?

Finora l’intelligenza artificiale era dietro uno schermo. Adesso impara a camminare, cucinare, costruire. Tra tre anni potrebbe costare meno di una collaboratrice domestica e lavorare cinque volte tanto. Non è un problema tecnologico, ma sociale. E non siamo pronti. L’analisi di Andrea Laudadio

Quando parliamo di intelligenza artificiale generativa, pensiamo al futuro. Ma il futuro vero deve ancora arrivare. Quello che vediamo oggi è un’AI confinata nel digitale: si nutre di dati provenienti da Internet, elabora testi e immagini, restituisce output su uno schermo. Presupponiamo che il web sia la realtà, che Wikipedia contenga la vita, che i dati di addestramento dei Large Language Models rappresentino il mondo. È una presunzione enorme. Internet non è la realtà. È una sua rappresentazione parziale, filtrata, spesso distorta. Una fotografia sbiadita di un universo che continua a esistere, a muoversi, a trasformarsi al di fuori dei server.

L’AI ha fame di realtà. Lo dimostra la corsa ai dispositivi wearable che cercano di catturare frammenti del mondo analogico: pin che registrano conversazioni, occhiali che fotografano ciò che vediamo, assistenti che leggono email e calendari. Humane ha provato questa strada con il suo AI Pin. A febbraio 2025 l’azienda ha chiuso dopo aver venduto meno di 10.000 unità. Eppure, Apple sembrerebbe che stia sviluppando un proprio AI Pin per il 2027, con l’obiettivo di 20 milioni di unità. Il fallimento di un pioniere non ha scoraggiato i giganti.

Non sono le tecnologie a fallire, ma il momento storico in cui vengono messe in pista. Oggi, il baratto privacy vs. vantaggi non mi soddisfa. Ma se la privacy migliora e, in cambio, ottengo qualcosa di irrinunciabile, mi vedrete anche con il pin sul bavero. Dopotutto ho già scambiato la mia privacy domestica con Alexa pur di poter spegnere la luce del soggiorno senza alzarmi dal divano. Sono di bocca buona quando ho un vantaggio concreto. E non sono il solo.

Questi tentativi, però, restano confinati nella cattura passiva di informazioni. Un assistente digitale che lavora sulle email e sul calendario pensa che quella porzione di realtà sia tutto. Ma la vera rivoluzione non sta nel registrare il mondo. Sta nell’agire su di esso.

Il salto dall’Internet AI alla Physical AI

L’intelligenza artificiale ora ha mani, piedi e occhi. Impara a muoversi, manipolare oggetti, affrontare la gravità e l’attrito. Nvidia, al CES 2025, ha sintetizzato: “Per troppo tempo l’AI è stata confinata agli schermi. Ora entriamo nell’era della Physical AI”. Il 2023 è stato l’anno dell’AI generativa. Il 2024 è l’anno in cui ha imparato a parlare. Il 2025 è l’anno in cui ha iniziato a fare le cose da sola. Il 2026 è l’anno in cui sta imparando a guardare fuori dallo schermo. Nel 2027 o nel 2028 comincerà a faticare. Dopotutto, i robot di oggi non dipendono più da una programmazione rigida. Apprendono attraverso l’esperienza, esattamente come un bambino che impara ad andare in bicicletta cadendo e rialzandosi.

Il corpo che mancava all’intelligenza

Per decenni, la robotica e l’intelligenza artificiale hanno proseguito su binari paralleli. La robotica eccelle nel movimento preciso e ripetitivo; l’AI nella comprensione e nella generazione del linguaggio. L’una aveva il corpo, l’altra la mente. Nessuna delle due, da sola, poteva replicare la versatilità umana. Oggi queste traiettorie convergono.

Boston Dynamics ha presentato al CES 2026 la versione commerciale di Atlas. Può correre, saltare, fare capriole, danzare breakdance. I suoi giunti consentono rotazioni a 360 gradi al polso, ai fianchi e al collo, superando i limiti anatomici umani. Durante la dimostrazione sul palco, Atlas ha girato la testa come la bambina di “L’Esorcista”. Un chiaro segnale: non intendono restare confinati entro i limiti della forma umana.

La vera innovazione è nel cervello, non nelle gambe. Quando afferriamo un bicchiere camminando, non pensiamo a “camminare” e “afferrare” separatamente. Lo facciamo e basta. Prima, i robot avevano sistemi separati per le gambe, le braccia e l’equilibrio. Ora Boston Dynamics e Toyota hanno creato un’unica intelligenza che coordina l’intero corpo. Atlas pensa come noi. È un salto decisivo.

E c’è di più. UBTech ha mostrato robot che condividono l’apprendimento tramite il cloud con il sistema BrainNet. Quando uno impara un compito, tutta la flotta lo sa subito. Diversamente dagli esseri umani, che devono essere istruiti uno per uno, i robot si scambiano informazioni in rete. Ad esempio, se un robot impara a montare un mobile IKEA a Shenzhen, dieci minuti dopo tutti i robot nel mondo sono in grado di farlo.

Tecnologia pronta, domanda in attesa

Da un punto di vista tecnologico, siamo pronti. Quello che manca è una domanda su scala sufficiente a far crollare i prezzi. È la stessa dinamica del monopattino elettrico: la tecnologia esisteva già cento anni fa, ma servivano batterie leggere, infrastrutture urbane adatte, una cultura della mobilità condivisa.

Oggi abbiamo batterie più leggere e durevoli, AI autonoma e meccanica precisa. I pezzi del puzzle combaciano. Goldman Sachs ha rilevato un crollo dei costi del 40% in un anno. Tesla punta a 20.000-30.000 dollari per Optimus a regime.

Facciamo un calcolo prudente: immaginiamo un robot a 50.000 euro, tutto compreso. È tanto? Dipende da cosa può fare. E probabilmente lo compreremmo come un’auto: circa 500 euro al mese per quattro anni.

Un nuovo coinquilino

Immaginiamo un robot in casa. Lavora mentre dormiamo, mentre siamo in ufficio, mentre guardiamo una serie TV. Venti ore al giorno, sette giorni alla settimana: 140 ore. Circa 250 euro di elettricità mensili. Un collaboratore domestico in Italia costa circa 15.000 euro all’anno per 30 ore a settimana. Il robot lavora quasi cinque volte tanto. Fate i conti.

Il confronto è interessante vedendo cosa può fare: pulire, cucinare, riparare, tinteggiare, cambiare una lampadina, sistemare un mobile, lucidare l’argenteria. E poi preparare un branzino al sale in tempo per cena. Collegato al forno, alla lavastoviglie e alla lavatrice Wi-Fi, gestisce la casa seguendo regole e gusti.

E ancora: vigilanza notturna, può portare a spasso il cane (se la legge gli permetterà di uscire di casa da solo), o coprirci mentre dormiamo e preparare la colazione preferita.

Nel contesto domestico il modello di business sarà l’acquisto diretto, non il noleggio. Le persone vorranno possedere il proprio robot, averlo sempre disponibile. Non noleggiarlo a ore come un monopattino.

In fabbrica e in cantiere

Nel settore industriale, i calcoli cambiano. Un imprenditore che legge pensa: 50.000 euro di hardware più energia contro il costo di un operaio annuo. Ma il robot lavora 18-20 ore al giorno. Una squadra potrebbe avere due supervisori umani e più robot. Il costo passa dal salario all’ammortamento.

Le aziende si stanno già muovendo. Bmw testa robot umanoidi a Spartanburg. Amazon li sperimenta nei centri logistici. Mercedes-Benz sperimenta nelle sue fabbriche. In Cina, Byd e Foxconn sono attive nello sviluppo della robotica industriale.

La mia previsione: entro due anni avremo umanoidi a prezzi accessibili per l’industria. Entro tre, per le case. A guidare sarà la domanda, non l’offerta. E sono convinto che la domanda ci sarà.

Come imparano il mondo

Per fare carpenteria, idraulica, cucina, i robot devono apprendere comportamenti analogici. Come? In parte, video e tutorial online esistono su molte cose, ma non su tutto. In parte “vivendo”, rubando con gli occhi questi saperi a persone e ad altri robot interconnessi.

Come si insegna a un robot a piegare un lenzuolo? Un tecnico di una società di sviluppo robotico indossa un visore, muove le mani e il robot lo imita finché non impara. Oppure qualcuno esegue il gesto indossando una tuta che registra ogni movimento, e quel gesto viene simulato migliaia di volte finché non è perfetto. Il bello è che basta insegnarlo a uno. Un secondo dopo, tutti i robot del mondo sanno piegare le lenzuola. Questo significa che l’esperienza, estesa con l’AI generativa produrrà una quantità di knowledge fisico mai visto nella storia dell’uomo.

C’è però un problema noto: le allucinazioni. Nell’AI digitale un’allucinazione produce un dato inventato o una risposta falsa. Fastidioso, a volte imbarazzante, raramente pericoloso. Ma se l’AI ha un corpo? Un robot che “allucina” in cucina rischia di fare danni reali. Non sono errori informatici, ma incidenti fisici. Questo cambia tutto: tolleranza, sicurezza, responsabilità.

Per funzionare davvero, questi robot dovranno essere sempre connessi. Il loro cervello è in parte nel cloud. Se la rete è lenta o cade, il robot si ferma. Ecco perché la robotica umanoide non è solo una questione di hardware. È una questione di infrastrutture. Deloitte lo dice chiaramente nei suoi Tech Trends 2026: senza reti veloci e affidabili, gli umanoidi resteranno prototipi da fiera.

Non è un cambiamento tecnologico

Fin qui ho immaginato un futuro e l’ho argomentato. Ora fermiamoci. Cosa significa davvero?

Cosa accade a una società che può permettersi gli umanoidi? Se sostituire un lavoratore costa meno che pagarlo, succederà. Non è cinismo, è aritmetica. Secondo Acemoglu e Restrepo del MIT, ogni robot industriale rimpiazza in media 3,3 posti di lavoro a livello nazionale—fino a 5-6 considerando gli effetti indiretti locali. In Cina si parla di 278 milioni di posti di lavoro a rischio entro il 2049, secondo le stime di Zhou e colleghi. In Europa, prima ancora che arrivassero gli umanoidi, le stime dicevano già: metà dei lavori è automatizzabile. E quelli erano robot che stavano fermi. Cosa succederà quando sapranno camminare, spostarsi, adattarsi?

La bassa scolarità su lavori facilmente replicabili produrrà sacche di disoccupazione strutturale. Meno occupati significa meno contributi previdenziali. I sistemi pensionistici, già sotto pressione per l’invecchiamento demografico, si troveranno con una base contributiva che si erode mentre i beneficiari crescono. Il divario tra ricchi e poveri si allargherà. I proprietari di capitale e tecnologia raccoglieranno benefici crescenti. Chi non riuscirà a adattarsi affronterà una disuguaglianza aggravata. E la circolazione della ricchezza rallenterà: i robot non spendono lo stipendio al bar, non comprano vestiti, non pagano l’affitto.

Come tassare questo nuovo mondo? I robot non hanno reddito, non pagano contributi, non versano Irpef. Bill Gates ha proposto pubblicamente una “robot tax”. La Corea del Sud l’ha introdotta in forma limitata. A settembre 2025 al Senato italiano è stato presentato un progetto di legge chiamato “contributo automazione”. Tasseremo i robot? L’energia che consumano? I componenti di cui sono fatti?

E chi controlla quei componenti? Le terre rare sono l’ossatura della robotica. La Cina estrae il 70% della produzione mondiale e controlla oltre il 90% della raffinazione. Tra il 2024 e il 25, Pechino ha imposto restrizioni all’export. Da dicembre le restrizioni si applicano anche a prodotti fabbricati all’estero con materiali o tecnologie cinesi. Chi controlla i minerali, controlla il futuro. Il Pentagono ha risposto investendo 400 milioni di dollari in MP Materials, diventando il maggiore azionista della principale filiera integrata di terre rare, in particolare in relazione ai magneti.

Gli stati investiranno in eserciti di umanoidi? Ma un esercito di umanoidi senza connessione è un esercito immobile. La fragilità rispetto ad attacchi hacker e la dipendenza da connettività potrebbero renderli inutilizzabili in contesti ostili.

Il calo demografico della Cina ed Europa sarà compensato dagli umanoidi? Forse. Ma cosa accadrà nei paesi in esplosione demografica come quelli africani? Se la robotica abbatte il costo del lavoro manifatturiero, il vantaggio competitivo della manodopera a basso costo svanisce. Il modello di sviluppo che ha sollevato dalla povertà centinaia di milioni di asiatici potrebbe non funzionare più per i prossimi miliardi di africani.

Le domande si accumulano. Le risposte non ci sono ancora. Ma una cosa è certa: questo non è un cambiamento tecnologico. È un cambiamento sociale, economico, geopolitico. Le regole che abbiamo costruito nel Novecento, basate sul lavoro umano come fonte di reddito, contributi, dignità, dovranno essere ripensate.

L’AI sta muovendo i primi passi fuori dallo schermo. E quando l’avrà fatto, nulla sarà più come prima.


×

Iscriviti alla newsletter