Il 2024 sarà l’anno in cui le imprese, di ogni settore e dimensione, adotteranno l’intelligenza artificiale nei suoi numerosi casi d’uso. Per chi intende guidare questa rivoluzione, ci sono alcuni importanti principi da considerare. Accanto all’impegno dei regolatori, deve esserci la responsabilità delle aziende che operano nel campo dell’IA. L’analisi di Stefano Rebattoni, presidente e amministratore delegato di Ibm Italia
Poche tecnologie hanno rivoluzionato il mondo, trasformando profondamente l’economia e la società nel suo complesso, al pari di quanto sta accadendo con l’intelligenza artificiale. Dal nostro osservatorio emerge che l’IA, in particolare quella generativa, ha il potenziale di aumentare la produttività annua del sistema-Paese entro il 2030 per un importo pari o superiore a quello a quello del Piano nazionale di ripresa e resilienza entro il 2030, influenzando la crescita economica e offrendo un vantaggio competitivo alle persone e alle organizzazioni che ne sapranno trarre beneficio.
L’intelligenza artificiale potrà anche contribuire ad affrontare alcune delle nostre sfide più urgenti, dalla ricerca di nuovi farmaci, alla migliore efficienza dell’industria manifatturiera al contrasto del cambiamento climatico. Se il 2023 è stato l’anno in cui tutto questo è diventato argomento di discussione pubblica e non più circoscritto agli esperti di tecnologia, il 2024 sarà l’anno in cui le imprese, di ogni settore e dimensione, adotteranno l’IA nei suoi numerosi casi d’uso, a partire dai più semplici – come il supporto alle risorse umane, la soddisfazione dei clienti finali e l’ottimizzazione dei processi di IT – a quelli più complessi e specifici che rivedranno in profondità i processi e le logiche operative.
Per chi intende guidare questa rivoluzione, ci sono alcuni importanti principi da considerare. Tra questi il principale è quello di agire, con rapidità ma guardando agli effetti sul lungo periodo. Una governance responsabile, posta al centro nell’utilizzo dell’IA, è conditio sine qua non per prevenire alcuni rischi insiti nell’utilizzo di questa tecnologia – come preconcetti e allucinazioni – potenzialmente impattanti al punto da poter affossare i suoi straordinari benefici. La grande sfida di questi tempi, dunque, è quella di porre l’intelligenza artificiale al servizio del progresso e della competitività dei sistemi economici, proteggendo i diritti degli individui e assicurando che i benefici siano per tutti e non solo per pochi.
Una sfida che è a livello di Paese ma che comporta anche una visione a livello europeo e globale. In questo contesto, il G7 svolge un ruolo fondamentale nel plasmare il futuro dell’innovazione e della digitalizzazione. Non è un caso che la presidenza italiana abbia incluso tra le diverse priorità del prossimo forum tra i sette Paesi leader, quella dell’intelligenza artificiale e del calcolo quantistico, con l’intento di approfondire le implicazioni sociali ed etiche di queste tecnologie, definendo dei guardrail per assicurare che l’innovazione tecnologica venga implementata in modo sostenibile, etico e rispettoso dei diritti umani.
Un impegno che l’Europa ha assunto attraverso l’AI Act, un accordo che con un approccio equilibrato propone la regolamentazione delle applicazioni sulla base del loro grado di rischio, promuovendone al contempo trasparenza, spiegabilità e sicurezza degli algoritmi utilizzati. In questa stessa direzione si muove il Codice di condotta per le organizzazioni che sviluppano sistemi avanzati di IA, elaborato nel 2023 durante la presidenza giapponese del precedente G7 e che auspichiamo possa rappresentare la traccia su cui proseguire il lavoro.
Accanto all’impegno dei regolatori, deve esserci anche la responsabilità delle aziende che operano nel campo dell’IA che, assieme, possono promuovere una collaborazione globale centrata sull’open source e sull’innovazione collaborativa per creare la necessaria fiducia verso questa tecnologia. Con questo obiettivo Ibm ha contribuito attivamente alla nascita dell’AI Alliance, assieme ad altre organizzazioni quali Meta, Amd, Cern, Intel, Linux foundation, Nasa, Sony group, Hugging face, Red hat e molte università, tra cui anche l’International center for theoretical physics di Trieste.
Tutte realtà a favore di un approccio open allo sviluppo, ma disciplinato attraverso una governance allargata e un lavoro d’insieme, per controllare i possibili errori grazie al contributo di tutti. Questo per noi significa essere responsabili by design ed esserlo durante tutto il ciclo di vita dell’IA, dalla progettazione allo sviluppo, fino all’utilizzo e alla manutenzione. È un aspetto questo su cui Ibm si è distinta nel settore da anni, mettendo sempre al centro la fiducia di stakeholder, clienti e cittadini. Lo stiamo facendo ancora una volta rispetto all’intelligenza artificiale che, secondo Ibm, per essere affidabile deve rispondere a cinque proprietà fondamentali: esplicabilità, imparzialità, trasparenza, solidità e privacy.
A supporto di questi attributi, Ibm ha annunciato nel 2023 la piattaforma watsonx, che si distingue per una sua componente caratteristica e unica, watsonx.governance capace di fornire alle organizzazioni gli strumenti di cui hanno bisogno per gestire l’intero ciclo di vita delle applicazioni, operando in trasparenza e anticipando le conformità normative ed etiche. Il più grande vantaggio dell’intelligenza artificiale generativa è rappresentato dalla sua portata: con un capitale umano adeguatamente formato, attraverso un approccio responsabile e l’utilizzo di strumenti di governance, questa tecnologia avrà la capacità di contribuire a disegnare un futuro migliore per tutti.
Formiche 200