La filosofia? Ha più tratti in comune con l’ingegneria di quanto si possa immaginare. E ciò è ancora più vero se si analizzano gli sviluppi e le sfide di una tecnologia come l’intelligenza artificiale. Lo ha spiegato Luciano Floridi, professore di Filosofia ed Etica dell’informazione all’Università di Oxford, ospitato dal Dipartimento di Ingegneria dell’Università Roma Tre in un convegno organizzato, nell’ambito di Data Driven Innovation 2019, da Maker Faire Rome e Punto Impresa Digitale della Camera di Commercio di Roma.
IL LEGAME TRA FILOSOFIA E INGEGNERIA
“La filosofia”, ha detto il professor Floridi aprendo la conferenza, “è ingegneria concettuale”. Perché, ha rimarcato l’accademico durante la sua lectio, è vero che la tecnologia si sta dimostrando in grado di migliorare continuamente le nostre condizioni di vita, ma uno dei temi centrali da affrontare resta come e in che misura vogliamo usarla.
“Ci sono cose che sono un più o meno facili e difficili – ha detto Floridi – e cose che sono più o meno semplici o complesse. Stiamo cercando di trasformare l’intelligenza artificiale dal difficile al complesso. I dati diventano sempre più sintetici, si passa dalla difficoltà alla complessità. Perché funziona? Perché i costi sono sempre più bassi, abbiamo sempre più dati prodotti dalle persone – il 90% – e se ne generano sempre di più, perché siamo perennemente connessi”.
LE SFIDE ETICHE
Da qui la necessità di trasformare il mondo in un luogo adatto per l’intelligenza artificiale, non l’opposto (come temono alcuni esperti, ad esempio il saggista James Barrat). Per farlo c’è bisogno però di avere ben chiare le sfide etiche di questa rivoluzione (un tema molto caro alla Santa Sede e ad alcune diplomazie, come quella americana). “Dovremmo rendere l’Intelligenza artificiale qualcosa che vada contro il fare male, perché una cosa che il digitale ha fatto è quella di democratizzare, in senso di diffondere, la vulnerabilità, perché non guarda in faccia nessuno – ha evidenziato Floridi – dovrebbe migliorare la nostra capacità di decisione e di controllo: immaginate le grandi metropoli senza Intelligenza artificiale. Nel 2050 probabilmente quasi tutti – il 70% – vivremo in grandi città, perché il 5G (la nuova connessione mobile di quinta generazione, in grado di abilitare una serie di servizi innovativi connessi all’Internet of Things, ndr) sarà lì. In questo contesto, la complessità sta salendo e abbiamo bisogno di tutto il potere computazionale che possiamo avere”.
Più di 500 miliardi di dispositivi IoT, dai sensori ai dispositivi medici, prevede un report di Cisco del 2016, saranno connessi a Internet entro il 2030. Nel 2018, in un solo minuto sulla Rete sono transitati 187 milioni di email e sono state effettuate 3,7 milioni di ricerche su Google. E ciò rappresenta solo una piccola parte di quanto è stato trasferito. Tecnologie emergenti come l’analisi dei big data e il machine learning sono abilitate dall’accesso a grandi quantità di dati. Pertanto, la quantità di tali informazioni e la velocità del loro trasferimento hanno una forte correlazione con la rapidità con cui queste tecnologie possono essere sviluppate e sui loro effetti.
IL TEMA DELLA PRIVACY
Per questa ragione il legislatore europeo sta provando a non farsi cogliere impreparato. Le applicazioni dell’intelligenza artificiale, recitano le indicazioni delle linee guida presentate dal Comitato consultivo della Convenzione sulla protezione delle persone rispetto al trattamento automatizzato di dati a carattere personale (dal 2016 presieduto da un rappresentante del Garante della privacy italiano), devono rispettare i diritti fondamentali, incluso quello alla protezione dei dati. Sviluppatori, produttori e fornitori di servizi IA devono valutare preventivamente i possibili rischi, adottando un approccio di tipo “precauzionale”. Necessarie anche precise prescrizioni nelle procedure di appalto pubblico. Si sottolinea, in pratica, che ogni progetto basato sull’intelligenza artificiale dovrebbe rispettare la dignità umana e le libertà fondamentali, nonché i principi base di liceità, correttezza, specificazione della finalità, proporzionalità del trattamento, protezione dei dati fin dalla progettazione (privacy by design) e protezione per impostazione predefinita (privacy by default), responsabilità e dimostrazione della conformità (accountability), trasparenza, sicurezza dei dati e gestione dei rischi. Tra i punti cardine del documento c’è anche la necessità di adottare un approccio fondato sulla preventiva valutazione dell’impatto che sistemi, software e dispositivi basati sull’intelligenza artificiale possono avere su diritti fondamentali, nonché sulla minimizzazione dei relativi rischi per le persone evitando, tra l’altro, potenziali pregiudizi (bias) ed altri effetti discriminatori, come quelli basati sulla differenza di genere o sulle minoranze etniche.
COME REGOLAMENTARE IL DIGITALE
Aspetti, questi, commentati da Floridi nel suo intervento. “Chi dice che l’intelligenza artificiale ruberà il lavoro”, ha sottolineato, “dice una cosa non vera. Questo è impossibile: il personale umano sarà sempre necessario. Chi oggi trova lavoro non è quello che è stato reso disoccupato dall’Intelligenza artificiale: c’è una generazione oggi che pagherà il costo dei vantaggi comuni”.
Piuttosto, ha detto ancora il direttore del Digital Ethics Lab dell’Oxford Internet Institute, non è l’innovazione digitale in sé, ma come sarà regolamentata anche dal punto di vista economico. “Dobbiamo pensare più profondamente e meglio, bisogna essere più attenti, avere un po’ più di cura per il mondo perché non basta il profitto e disegnare meglio”, ha puntualizzato il professore. “Quando ci sono le trasformazioni industriali tecnologiche si creano molte opportunità nel campo del lavoro: la ricchezza che si crea è gigantesca ma finisce in pochi conti bancari e dal di lì spesso non si muove, non viene distribuita in maniera equa e questo dal punto di vista socio filosofico è un problema”.