L’intelligenza artificiale, soprattutto quella generativa, sta assumendo un ruolo cruciale nella gestione dei rischi e nella sostenibilità spaziale, come emerso all’Iac 2024. Massimo Comparini, capo dell’unità spaziale di Leonardo, ha sottolineato l’importanza dell’IA nelle missioni lunari e nella gestione del traffico spaziale, ma la sfida rimane bilanciare il potenziale di queste tecnologie con una regolamentazione etica e un uso responsabile
L’intelligenza artificiale generativa (GenAI) ha il potenziale di trasformare profondamente la gestione del rischio strategico e la sostenibilità del progresso nell’industria aerospaziale, come evidenziato durante il panel “Leveraging Generative Artificial Intelligence (GenAI) for Enhanced Strategic Risk Management in Aerospace Sustainability” tenutosi durante la quarta giornata all’International astronautical congress (Iac) a Milano. Tra i relatori è intervenuto Massimo Claudio Comparini, managing director della Space Business Unit di Leonardo, che ha offerto riflessioni cruciali sull’applicazione dell’IA nel contesto delle missioni spaziali.
Uno degli aspetti più discussi è stato il ruolo dell’IA nell’identificazione e mitigazione dei rischi, un campo in cui Lockheed Martin ha già una forte esperienza, come ha illustrato Christopher Geiger, internal audit director della società. Geiger ha condiviso esempi di successo dell’uso dell’IA per creare scenari di rischio predittivi, menzionando il loro utilizzo di modelli generativi per scenari come la lotta agli incendi e la previsione di rischi climatici, un chiaro esempio di come l’IA possa andare oltre le semplici applicazioni industriali e contribuire alla sicurezza e alla sostenibilità ambientale applicabile anche a quella spaziale.
Tuttavia, Comparini ha sottolineato come sia essenziale non perdere di vista l’aspetto operativo, osservando che la cooperazione tra uomo e macchina diventerà cruciale nelle missioni lunari del futuro: “Non posso immaginare che gli astronauti sulla Luna abbiano dieci o quindici joystick per controllare ogni macchina che li assiste. Dovremo fare affidamento su sistemi di IA sempre più intelligenti”. Il rischio qui, secondo il managing director dello spazio di Leonardo, è duplice: non solo le macchine devono essere in grado di prendere decisioni in autonomia, ma devono farlo in modo affidabile, senza compromettere la sicurezza degli esseri umani.
Il tema della sostenibilità è emerso anche nelle sue osservazioni, che hanno evidenziato il ruolo dell’IA nelle future missioni lunari, sottolineando come la GenAI potrà gestire i rischi non solo in fase di pianificazione, ma anche durante le operazioni in corso. Questo richiede una stretta integrazione tra sistemi di intelligenza artificiale e i dati generati dalle missioni, un aspetto che Leonardo sta affrontando attraverso programmi come Copernicus.
Un altro punto emerso durante il panel arriva da Mariella Graziano, direttore esecutivo della strategia e sviluppo aziendale di GMV Space Systems, che ha descritto l’uso dell’intelligenza artificiale all’interno di GMV per la gestione della conoscenza e la generazione di proposte, evidenziando l’importanza di ottimizzare i processi attraverso strumenti IA che migliorino l’efficacia operativa. Tra i progetti chiave, il GMV Knowledge Finder, un chatbot interno che permette ai dipendenti di trovare rapidamente esperti e informazioni rilevanti, risolvendo problemi organizzativi. Un altro esempio è la generazione automatizzata di proposte, dove l’IA velocizza la preparazione di offerte aziendali standard, migliorando sia la precisione che l’efficienza operativa. Questi progetti dimostrano come l’AI non solo supporti attività tecniche, ma giochi un ruolo strategico nell’aumentare la competitività aziendale.
Alla luce di queste innovazioni, una domanda cruciale è se possiamo davvero fidarci delle soluzioni offerte dall’IA. Come ha spiegato Geiger, “se addestri l’IA con dati non strutturati presi da tutta Internet, puoi ottenere ‘allucinazioni’, ma con l’uso di dati interni e di un sistema di memoria breve per l’IA, siamo in grado di garantire che le informazioni siano affidabili”. Questo dimostra che, se utilizzata correttamente, l’IA può davvero supportare la gestione del rischio in modo robusto, ma richiede una gestione attenta e responsabile dei dati.
L’elemento etico è stato affrontato da Adam Greenstone, consigliere legale della Nasa, che ha posto l’accento sulla necessità di una regolamentazione interna e di una gestione responsabile dell’IA. “Il valore di segnalazione dello spazio è immenso”, ha affermato, sottolineando come un errore reputazionale nell’uso dell’IA nello spazio potrebbe avere conseguenze molto più gravi rispetto ad altri settori.