Venerdì 19 maggio a Milano, la Fondazione Pensiero Solido organizza un pomeriggio di studio dal titolo “Intelligenza artificiale. E noi? Sfide, opportunità, responsabilità”. Ne parliamo con Antonio Palmieri, presidente e fondatore
Può esistere una possibile “via italiana” all’intelligenza artificiale? E a chi sta determinarne usi e limiti, sapendo che non tutto ciò che è tecnicamente fattibile è eticamente accettabile?
Per raggiungere l’obiettivo di arrivare a essere consapevoli dell’impatto dell’intelligenza artificiale la Fondazione Pensiero Solido ha organizzato domani a Milano (Cariplo Factory – BASE Via Bergognone, 34) un pomeriggio di studio dal titolo: Intelligenza artificiale. E noi? Sfide, opportunità e responsabilità.
Delle opportunità e conseguenze pratiche ed etiche dell’uso dell’intelligenza artificiale ne abbiamo parlato con Antonio Palmieri, fondatore e presidente della Fondazione che domani dialogherà con i rappresentanti delle grandi aziende tecnologiche, accademici e alcune delle principali università.
Sam Altman, ceo di OpenAI è intervenuto due giorni fa al Senato degli Stati Uniti sui pericoli rappresentati dall’intelligenza artificiale generativa.
Sam Altman ha ragione: l’Intelligenza artificiale non è una creatura, perché non esiste in natura, ma è una costruzione dell’uomo.
Tuttavia non è neppure solo uno strumento: non lo è perché non siamo davanti a un semplice algoritmo che si limita a eseguire le istruzioni. Infatti l’AI generativa e conversazionale impara ed evolve continuamente e dialoga con noi esseri umani.
Altman chiede la creazione di un’agenzia governativa che detti gli standard per il settore, creando e assicurandosi il rispetto di regole per la concessione di licenze.
Una richiesta che ha fondamento perché siamo di fronte a un tema globale. Però sono convinto che in primo luogo sta a chi costruisce software di intelligenza artificiale determinarne contenuti e limiti, sapendo che non tutto ciò che è tecnicamente fattibile è eticamente accettabile.
È una questione di responsabilità, che certamente va sostenuta da regole internazionali che stabiliscano principi adeguati, ma che non va affidata primariamente a una norma esterna alle imprese. Mai come in questo caso esse devono farsi carico di una vera e propria responsabilità sociale.
A proposito di leggi. Qual è il suo giudizio sull’AI Act dell’Ue?
Una legge non riesce a prevedere futuri svolgimenti della tecnologia. Però, in tema di responsabilità, ho molto apprezzato l’articolo 4a, che contiene i sei principi generali che tutti gli operatori dell’Intelligenza artificiale dovranno rispettare nello sviluppo e nell’utilizzo dei sistemi di AI. Le due commissioni parlamentari lo hanno aggiunto al testo originario proposto dalla Commissione europea nell’aprile 2021 ed è stata una buona mossa.
Perché?
Perché intervento umano e supervisione dei meccanismi si funzionamento, sicurezza dei sistemi di AI, privacy e corretto trattamento dei dati, trasparenza e tracciabilità dei sistemi, il no ad atteggiamenti discriminatori e l’attenzione al benessere sociale e ambientale sono sei principi guida che vanno nel segno di quella responsabilità che ho evocato prima.
Tra leggi in itinere e colossi tech in azione, che spazio rimane per noi?
Nel frattempo, tra paure ed entusiasmi, dobbiamo puntare a essere ragionevoli, preparati e responsabili. Per questo dopodomani, venerdì 19 maggio pomeriggio a Milano, la mia Fondazione Pensiero Solido organizza un pomeriggio di studio dal titolo “Intelligenza artificiale. E noi? Sfide, opportunità, responsabilità (qui i dettagli dell’evento).
Presenteremo il sondaggio inedito Youtrend/Fondazione Pensiero Solido “Gli italiani e l’intelligenza artificiale. Cosa ne pensano, cosa si aspettano.”. Sarà interessante conoscere il punto di vista degli italiani.
Vi limiterete a presentare il sondaggio?
A seguire avremo 25 interventi. Ragioneremo sull’impatto dell’AI con i rappresentanti delle grandi aziende tecnologiche, a partire da Microsoft e Google, e con Cnr, IIT, Sapienza, Luiss, Cattolica e Politecnico di Milano. Quindi approfondiremo le ricadute etiche e filosofiche e quelle sul lavoro, sulla sanità, sulla attività legale, sulle persone con disabilità, sulla politica e sulla privacy e valuteremo con alcune aziende la possibilità di una “via italiana” all’AI. Chiuderà I lavori Guido Scorza, componente del Garante della Privacy.
Obiettivo dell’evento?
L’intelligenza artificiale generativa e conversazionale non è una moda del momento. Sta a tutti noi che viviamo nelle democrazie occidentali fare in modo che sia al nostro servizio e non diventi uno strumento di prevaricazione. Per questo momenti di approfondimento e poi di ampia divulgazione sono necessari e auspicabili.