Skip to main content

AI e robotica. Innovazione e rischi tra etica, conflitti economici e militari

Il 26 marzo si è tenuto al Cnel un incontro del Gruppo dei 20 sull’Intelligenza Artificiale e robotica con interventi che ne hanno disegnato i profili etici e gli effetti generali sulla società, l’economia, la difesa e le guerre. Qui l’introduzione del coordinatore del Gruppo dei 20 Luigi Paganetto

L’Intelligenza Artificiale (AI) e la robotica stanno ridisegnando la geopolitica, in quanto drivers, da una parte, della competizione economica globale e dell’innovazione tecnologica legata all’attività militare. Dall’altra, stanno ponendo problemi etici, perché è sempre più chiaro che non basta la regolamentazione, cui l’Europa sta, peraltro, dedicando particolare attenzione, a disciplinarne il rapporto con l’economia e, in generale, le attività dell’uomo, sia civili che militari.

Secondo Jared Kaplan, responsabile scientifico di Anthropic stiamo per entrare in una nuova era in cui un modello AI  può utilizzare tutti gli strumenti, a cominciare dal computer, come fanno le persone nello svolgere i propri compiti. L’AI, assieme alla robotica, è destinata a cambiare il mondo del lavoro e potrebbe, addirittura, “entrare in conflitto con gli umani”. Ciò è tanto più vero quanto più si affermeranno gli world models che cercano di costruire una vera mappa cognitiva del mondo e delle sue regole. I modelli generativi di AI oggi scrivono mail, producono immagini, ma quando si tratta di costruire una mappa cognitiva della fisica del mondo ,quella necessaria per guidare un’auto o muovere un robot in cucina, i grandi modelli linguistici mostrano limiti evidenti.

Da qui gli world models che “simulano la dinamica di un ambiente, prevedendo come evolve e come le azioni ne cambiano lo stato”. Il rischio, naturalmente è che un’AI super-intelligente persegua i propri obiettivi in modi imprevedibili, o dannosi, per l’umanità, semplicemente perché i suoi valori non sono perfettamente allineati ai nostri. Se guardiamo agli effetti di AI va ricordato che si tratta di una tecnologia “general purpose” come le macchine a vapore, l’elettricità, e Internet, che hanno la proprietà di determinare innovazioni radicali capaci di trasformare profondamente l’economia e la società nel suo complesso, nonché effetti economici generali attraverso modifiche strutturali nella produzione, nell’organizzazione dei fattori produttivi e nella produttività di questi ultimi.

Ha bisogno, come d’altro canto accadde con l’elettricità di investimenti a forte intensità di capitale, per realizzare, in questo caso, l’hardware dei data center, le infrastrutture digitali e la loro combinazione con software sempre più sofisticati I calcoli sugli effetti dell’utilizzo dell’AI nell’economia distinguono tra settori ad elevata, o bassa complementarietà con l’AI, ma portano comunque alla conclusione di una sua capacità di generare forti aumenti di produttività, e di richiedere forze di lavoro con maggiori competenze.

La proiezione degli aumenti di produttività si confronta, però, con un mondo in cui scambi e dazi sono sempre più legati a considerazioni di natura geopolitica nel commercio, in particolare di chips e terre rare, componenti essenziali per il digitale e, dunque, per l’AI. E ciò mette in discussione la diversità delle opportunità offerte a ciascun Paese, a parità di competenze e capacità d’innovazione, di sviluppo industriale del settore dell’Intelligenza Artificiale.

Sul fronte dell’occupazione è recente la notizia che il 20% dei lavoratori di Meta e 30 mila di Oracle sono a rischio per investire sull’IA. Secondo la società di consulenza Challenger, Gray e Christmas Inc, già negli Usa, lo scorso anno, 55 mila esuberi erano collegati con l’AI. È un dato che richiama l’analisi fatta dalla Citrini Research di New York. L’idea di fondo di questo rapporto è che per abitudine, o pigrizia, i consumatori spesso accettano le offerte e i pacchetti di servizi e pagano i costi di intermediazione. L’AI è in grado di darci un quadro razionale della convenienza delle offerte, ed evitarci, e sempre più sarà così, lo sforzo di confrontarle tra loro. La conseguenza è il venir meno di settori di intermediazione come assicurazioni, consulenza fiscale e finanziaria, e della relativa occupazione, con i relativi salari. Ne nasce un rischio crescente, a giudizio della Citrini Research, non solo per l’occupazione ma anche per il livello della spesa e, dunque, per la crescita.

Sempre guardando all’occupazione, non dobbiamo dimenticare che i Paesi avanzati, nel lungo periodo, vedranno diminuire i nati ed i giovani, e aumentare l’automazione che, attraverso i robots, sostituirà via via il lavoro umano, tant’è che, stando alle proiezioni Morgan Stanley, nel 2050, i robots umanoidi saranno circa un miliardo. Sarà la Cina ad avere il più alto numero di umanoidi, a dispetto dell’enorme forza lavoro su cui può contare. L’AI è usata oltre che per assicurare la sicurezza informatica e per interpretare enormi quantità di dati (Big Data), anche per guidare sciami di droni intelligenti , per elaborare immagini satellitari e prevedere le mosse del nemico ed apprestare tempestivamente le necessarie difese.

Il confine delle applicazioni dell’Intelligenza Artificiale tra settore civile e militare è sempre più labile. Aziende come Anduril Industries, Palantir Technologies e Shield AI, nate con una cultura legata a innovazione e mercato, competono con i giganti tradizionali della difesa, finanziate da capitali di rischio. Aziende come OpenAI hanno affrontato pressioni interne e dubbi etici circa la collaborazione con il settore militare. Le recenti vicende di guerra in Ucraina, Gaza e Iran ci mostrano il crescente impiego dell’IA per definire scenari ed obiettivi. Ma casi come quelli dell’uccisione di intere classi di studentesse in Iran mostrano la fallibilità dell’azione condotta con l’IA e pongono un importante problema etico.

Non si sa chi debba rispondere degli errori, che sono tanto più probabili quanto più i decisori si trovano ad applicare, in tempi ristretti, modelli che definiscono, in poche ore, migliaia di obiettivi e di scenari. La questione è che non ci sono regole internazionali che definiscano l’impiego dell’Intelligenza Artificiale in guerra, come viceversa accade per alcune armi letali.

Sintomatica la controversia tra Difesa Usa e Antropic che costruisce Claude, uno dei sistemi di intelligenza artificiale più potenti al mondo, che si è rifiutato di togliere i limiti che impediscono al proprio prodotto di sorvegliare milioni di cittadini americani e di prendere decisioni letali senza supervisione umana. Dall’altra parte c’è il Dipartimento della Difesa degli Stati Uniti, che pretende mano libera e un’Ai senza limiti. Al tema della sorveglianza occulta dei comportamenti dei cittadini va aggiunta, per concludere , la tendenza spontanea e crescente a colloquiare con ChaGPT che tende a diventare l’interlocutore privilegiato dei giovani tanto da mettere in discussione il ruolo dei social media e far dire in un recente convegno organizzato da quattro Atenei Pontifici che, bisogna preparare chi evangelizza in rete.


×

Iscriviti alla newsletter