Skip to main content

AI e aziende. La Volpe (Ibm) spiega l’equilibrio tra innovazione e regole

Di Alessandro La Volpe

La legge europea sull’intelligenza artificiale riconosce che l’innovazione è fondamentale per il successo competitivo e commerciale, ma deve essere bilanciata da un’attenzione alla sicurezza pubblica e agli standard etici. Per le aziende, questo equilibrio sarà essenziale per il successo a lungo termine e per raggiungerlo sarà fondamentale un approccio all’IA responsabile. L’analisi di Alessandro La Volpe, amministratore delegato di Ibm Italia

Il discorso pubblico sull’intelligenza artificiale – e in particolare sull’IA generativa – è incentrato su due narrazioni contrastanti. Da un lato l’intelligenza artificiale viene annunciata come la nuova frontiera della produttività e dell’efficienza, che promette di trasformare le industrie e di portare progressi senza precedenti in settori come la finanza, la produzione e la ricerca medica. Dall’altro lato c’è una forte apprensione per i potenziali rischi che potrebbe comportare per la società, tra cui il suo utilizzo per condurre sofisticati attacchi informatici, violare della privacy dei dati e far proliferare pregiudizi nelle applicazioni. È questo equilibrio tra innovazione e sicurezza che i governi e le imprese stanno cercando di raggiungere.

L’Unione europea ha intrapreso un’azione proattiva con l’approvazione della legge sull’IA lo scorso agosto, che rappresenta il primo quadro normativo completo sull’intelligenza artificiale a livello globale. La legge europea riconosce che l’innovazione è fondamentale per il successo competitivo e commerciale, ma deve essere bilanciata da un’attenzione alla sicurezza pubblica e agli standard etici. Per le aziende, questo equilibrio sarà essenziale per il successo a lungo termine e per raggiungerlo sarà fondamentale un approccio all’IA responsabile. Cosa significa? L’intelligenza artificiale responsabile comprende principi etici e direttrici coerenti che guidano la progettazione, lo sviluppo e l’impiego dell’IA.

Per Ibm spiegabilità, equità, solidità, trasparenza e privacy sono i pilastri per creare fiducia verso l’adozione di questa tecnologia, in coerenza con i principi etici che rispecchiano i valori e gli obiettivi dell’azienda. Questo approccio è guidato da un team interdisciplinare di esperti in materia, di etica dell’IA, legali e leader aziendali per arrivare a disciplinare ogni aspetto dell’intelligenza artificiale: dalla progettazione, allo sviluppo e all’implementazione, comprese le linee guida sull’uso da parte di fornitori e partner. Sempre più spesso le aziende istituiscono comitati etici per supervisionare questi elementi e valutare i nuovi casi d’uso. Il secondo componente essenziale per un’intelligenza artificiale responsabile è la governance dei dati. Qualsiasi applicazione di IA di successo si basa sulla qualità e integrità dei dati e su una solida governance per proteggerli dai rischi di sicurezza e privacy, oltre che dalle derive, dai pregiudizi e dai problemi di proprietà intellettuale.

Una solida politica dei dati deve anche prevedere regole chiare sulla loro raccolta, archiviazione, uso, accesso ed eliminazione e aderire ai principi di spiegabilità, equità e privacy. Insieme ai principi etici, la governance mitiga i rischi e protegge l’azienda da danni finanziari e di reputazione. Per le imprese, questo bilanciamento è essenziale in un contesto regolatorio in evoluzione. Nell’ottica dell’intelligenza artificiale responsabile, esse potranno integrare le diverse forme di regolamentazione con i propri standard etici per contribuire allo sviluppo e alla diffusione dell’IA generativa e attraverso un sistema di governance supportare la compliance rispetto alla normativa. Ibm ha recentemente pubblicato un rapporto Digital policy agenda per l’Europa che indica sei priorità per creare un’Unione europea collaborativa e competitiva nel nuovo mandato 2024-2029. Tra queste si richiamano: rendere l’intelligenza artificiale affidabile una realtà, ridurre il divario di talenti digitali e migliorare la competitività digitale dell’Europa.

Un impegno determinante per imprese e governi in tale direzione consiste nella promozione di un approccio aperto all’intelligenza artificiale. Un ecosistema aperto permette a tutti di esplorare, progettare e studiare applicazioni di IA, coltivando un insieme diversificato di voci e prospettive e contribuendo a uno sviluppo dell’intelligenza artificiale più collaborativo, trasparente e responsabile. Ciò è particolarmente importante per ridurre i pregiudizi nell’intero ecosistema. Per accelerare questo ambiente, Ibm e altri operatori tecnologici hanno annunciato l’anno scorso l’IA alliance, che riunisce più di 100 organizzazioni tra industria, start up, università, ricerca e governo per sostenere l’innovazione aperta dell’intelligenza artificiale. Guardando al 2025 e oltre, la trasparenza offerta dagli approcci open sarà essenziale per il futuro di un’IA responsabile e sicura. L’Unione europea dovrebbe abbracciare gli ecosistemi di intelligenza artificiale aperti e riconoscere che sono fondamentali per sviluppare e realizzare tecnologie di intelligenza artificiale responsabili che apportino ampi benefici alla società nel suo complesso.

Formiche 210


×

Iscriviti alla newsletter