Assieme alla fame di intelligenza artificiale cresce la diffidenza nei suoi confronti. Il rapporto Ibm illumina le zone d’ombra, la regolamentazione europea inizia a delineare i confini. Tutti i risultati della ricerca
L’Intelligenza artificiale (IA) è sempre più vista come una tecnologia rivoluzionaria, che trasformerà il modo in cui le aziende operano, ma alcuni aspetti ne frenano ancora l’adozione. È uno dei risultati che emergono dallo studio “Global AI Adoption Index 2021” di IBM, condotto da Morning Consult in Italia, Francia, Germania, Spagna e Regno Unito.
Secondo la ricerca, più di un terzo (36%) dei professionisti IT ha riferito che la propria azienda ha accelerato il rollout dell’IA come diretta conseguenza della pandemia. Tuttavia, solo il 27% ha affermato che l’organizzazione di appartenenza ha effettivamente impegnato l’IA per il proprio business. Un ulteriore 44% degli intervistati ha riportato che la propria azienda sta attivamente esplorando l’uso dell’IA per le proprie attività.
In particolare, il 42% dei professionisti IT italiani riferisce che la sua azienda ha accelerato l’adozione dell’IA a causa della pandemia, mentre il 30% riferisce che non ci sono stati cambiamenti negli investimenti. Più di un terzo (34%) dei professionisti IT italiani ha riferito che la necessità di interagire in un modo nuovo con i propri clienti ha influenzato la loro decisione di adottare e utilizzare software o strumenti di automazione a seguito della pandemia COVID-19.
Ecco i numeri sulla fiducia. Il 76% dei professionisti IT in Italia riferisce che è critico o molto importante per il loro business potersi fidare che l’output dell’IA sia corretto, sicuro e affidabile. Dal sondaggio però emerge anche che i professionisti IT in India (95%), Cina (85%), America Latina (82%) e Stati Uniti (80%) sono più inclini sottolineare questi aspetti.
Come spiegarlo? Formiche.net l’ha chiesto ad Alessandro La Volpe, vice Presidente Technology di IBM Italia. “Dallo studio sembra emergere come la sensibilità di questi Paesi sia maggiore rispetto a quella in Europa. La mia interpretazione? Più la sperimentazione e l’adozione va avanti, più l’IA può diventare sia spiegabile sia libera da bias e comportamenti distorti”, spiega. “L’Unione europea è molto avanti, basti pensare che il tavolo europeo sull’etica applicata all’IA è datato 2018”, aggiunge. “Oggi è fondamentale dotarsi di metodologia e strumenti che permettano a non professionisti di capire come un algoritmo è stato addestrato, come lavora e come sia possibile individuare eventuali bias mentre opera”.
Ecco, dunque, le principali barriere d’ingresso secondo la ricerca globale IBM; azienda da sempre impegnata nella gestione responsabile dei dati e della tecnologia: il 38% degli intervistati ha citato l’apparente complessità dell’integrazione dell’IA nei sistemi aziendali esistenti; per il 33% la ragione principale è la mancanza di esperienza o conoscenze; il 29% ha identificato la crescente complessità dei dati e l’organizzazione in silos.
Una mano potrebbe arrivare da Bruxelles. La cornice di regolamentazione europea, nonostante sia ancora imperfetta, rimane lo sforzo legislativo più avanzato e importante in materia, uno strumento che – se adottato – fornirà gli standard industriali per la commercializzazione e l’adozione dell’IA e li manterrà al passo con la sua evoluzione. Tra i requisiti necessari per l’applicazione di questa tecnologia figureranno la trasparenza, la comprensibilità dei risultati, la qualità dei dataset utilizzati e le tecniche di controllo (tra cui quello umano) per evitare pratiche discriminatorie.
Comunque, per abbattere le barriere evidenziate dalla ricerca di IBM occorre affinare le regole europee. A partire dalla definizione troppo vaga di IA, ha spiegato Francesca Rossi, a capo della divisione globale di IA ed Etica di IBM, durante il webinar promosso dalla compagnia. Se la regolazione riesce a riferirsi con precisione all’applicazione della tecnologia, ai rischi e agli effetti invece della fonte, si può creare un ecosistema europeo capace di bilanciare la necessità d’innovazione e quella di dover offrire accesso equo e protetto a un’IA di qualità.
La fiducia, ha spiegato Rossi, passa anche dal trovare un equilibrio tra aggiornamento dei criteri e sicurezza per gli operatori nel mercato. Inoltre, serve stabilire i limiti della responsabilità e degli oneri sia dei fornitori che utenti. “L’offerta di un’IA affidabile e fidata è qualcosa che impatta tutti gli stakeholders“, ha commentato.