Skip to main content

Vi spiego come l’Intelligenza artificiale cambierà il mondo

Una mia amica che vive negli Stati Uniti, pochi giorni fa ha lasciato da solo in camera il figlio Alessandro, di quasi quattro anni, con l’Ipad. Il bimbo, dopo aver visto dei video su un robot, quando la mamma è tornata le ha detto: “Che bello mamma, così quando non ci sei tu mi aiuta lui”. Per Alessandro è normale che intelligenza umana e intelligenza artificiale collaborino. Noi anziani facciamo ancora un po’ di fatica ad accettare l’idea. Anche se da ieri anche i più conservatori saranno costretti a dare per scontato il postulato di quella che il filosofo italiano Luciano Floridi, a capo dell’Internet Insitute di Oxford, ha definito “la quarta rivoluzione della storia dell’uomo”: non siamo più gli unici agenti intelligenti sulla Terra. L’intelligenza non è più solo umana.
Eric Schmidt, il chairman di Google, alla riunione dell’Aspen Institute aveva gettato il sasso: “Sono in molti a credere che siamo vicini al momento in cui un computer passerà il test di Turing. Si pensa entro cinque anni”. Era lo scorso agosto. Ieri Eugene, un chatbot (un computer programmato per chiacchierare), si è spacciato per un tredicenne di San Pietroburgo. E i giudici della Royal Society gli hanno creduto ascoltando le sue risposte. Per la prima volta un computer ha superato il test di Turing, che si ripete da 65 anni in Inghilterra. Serve a capire se un computer può rispondere alle stesse domande poste ad un essere umano in maniera tale da non essere riconosciuto come intelligenza artificiale. Ingannando i giurati per il 30% delle risposte, Eugene ha superato il test. Eugene Goostman è un software ideato da Vledimir Veselov ed Eugene Demchenko, due studiosi russi che vivono rispettivamente ad Harvard e a San Pietroburgo, e già altre volte si era piazzato bene nella gara.

“È importante ricordare che parte del successo nel superare il test dipende dall’abilità nell’essere umano di porre domande non naive che permettano di smascherare la natura dell’agente” dice Maria Rosaria Taddeo, docente di cyber security e etica presso l’università di Warwick e presidente dell’International association for Computing and philosophy.

La svolta è storica: ora sappiamo con certezza che un intelligenza artificiale cresce e si sviluppa autonomamente dall’intelligenza umana.

“La presenza di agenti artificiali raffinati abbastanza da superare il TT supporta la tesi che tale natura non sia legata ‘all’essere umano’ (alla natura umana) quanto alla capacità degli agenti di raccogliere, elaborare e comunicare informazione. Come dice Luciano Floridi possiamo ridefinire in questo senso gli esseri umano come inforgs, organismi informazionali.
Già oggi sono molti gli agenti artificiali che simulano comportamenti umani, basti pensare a Siri, l’assistente personale sui nostri smartphone, di cui cominciamo a fidarci più che dei nostri amici.

“La questione dell’interazione con agenti artificiali in contesti digitali richiama l’attenzione su un tema diverso ma altrettanto importante che è quello della fiducia, il ‘trust’, che nell’epoca della rivoluzione dell’informazione abbiamo imparato a riporre anche negli agenti artificiali, da Siri di cui ci fidiamo per ricordarci di comprare il latte ai navigatori satellitari di cui ci fidiamo per arrivare al mare. questi cambiamenti ci impongono di riconsiderare il modo di pensare il concetto di fiducia che, in una versione più minimalista, si estende fino ad includere agenti artificiali.
Le deleghe che l’uomo da e darà all’intelligenza artificiale sono infinite. E se al Mit di Boston già si studiano i punti di debolezza del futuro governo globale degli algoritmi, nella vita quotidiana saranno infinite le professioni che potremmo affidare al controllo totale o parziale delle macchine.

L’uso di sistemi esperti e di agenti artificiali che operino sui mercati azionari è non solo un uso possibile ma già sperimentato. agenti artificiali così sofisticati potrebbero essere usati per missioni di salvataggio, operazioni umanitarie o in situazioni rischiose in cui sono necessari interventi che però potrebbero mettere a rischio vite umane. Cyber e robotic warfare offrono altri esempi in questo senso, così come l’uso in ambito di missioni spaziali. In generale, quanto più sofisticata diventa la capacità delle macchine di raccogliere dati, elaborarli e sulla base di queste elaborazioni rispondere alle esigenze del contesto tanto più esteso è l’insieme delle possibili applicazioni.

Come si sta preparando l’uomo al rischio cyberwar involontaria generata dall’incrocio di algoritmi sempre più indipendenti che dialogano tra loro?
Attenzione, il TT riguarda agenti artificiali capaci di simulare comportamenti umano, non ci dice niente sull’autonomia di queste macchine.
L’automazione nel caso della cyber warfare è un tema cogente. Si pensi per esempio al caso in cui agenti artificiali rispondono automaticamente alle azioni prese da altri agenti artificiali, in questo caso i tempi di ‘azione’ possono essere molto ridotti tanto da non dare il tempo agli agenti umani di intervenire o di modificare il corso delle azioni.
Al momento conosciamo una cyber warfare che mantiene l’agente umano ‘in the loop’, ossia nel processo che porta all’esecuzione di una determinate azione. Tuttavia non è irrealistico pensare ad un’evoluzione di questo scenario in cui l’agente umano non sia più ‘in the loop’ ma ‘on the loop’, e quindi si limiti a supervisionare il processo che porta l’esecuzione di una data azione senza esserne parte.
Questa evoluzione pone importanti domande per la regolamentazione della cyber warfare e importanti questioni etiche allo stesso tempo. Per esempio, diventa molto problematico definire le responsabilità morali data ‘l’autonomia’ degli agenti artificiali e dato lo scollamento che esiste tra l’esecuzione di un’azione da parte di un agente artificiale autonomo e la decisione di eseguire una data azione, che è una decisione che riguarda la progettazione, il design, degli agenti artificiali.

Il successo di Eugene Goostman segna un punto a favore della Singularity?
L’idea che ad un certo punto l’intelligenza artificiale surclasserà quella umana e cambierà la natura della società e quella degli esseri umani è allo stesso tempo intrigante e fuorviante. Intrigante perché stiamo di fatto sperimentando come le tecnologie dell’informazione abbiamo ridefinito la realtà in cui viviamo e il modo in cui interagiamo con gli altri e con l’ambiente; fuorviante perché questi cambiamenti che sono già in corso sollevano questioni filosofiche, etiche, sociologiche pressanti che finiscono con l’essere messe in secondo piano per guardare a possibili scenari avveniristici”.

Insomma in un futuro sempre più aperto e in quadri politici sempre più incerti il pallino sembra passare dalla politica alla filosofia etica. La decisione della Corte europea di affidare a Google, un’azienda privata, lo studio delle leggi sovranazionali sulla privacy e l’informazione per il diritto all’oblìo è per certi versi sconcertante. Google a sua volta si è affidata a un team di esperti guidati nella parte etica proprio dall’italiano Floridi. Quanto all’imprevedibilità dei cambiamenti generati dalla prova che le macchine possano pensare e agire come noi… chi vi assicura che l’articolo che avete appena letto sia stato scritto proprio da un essere umano?

Da Alan Turing a Luciano Floridi: la quarta rivoluzione della storia dell’uomo

Barbara Carfagna: Nato e cyberwar


CONDIVIDI SU:

Gallerie fotografiche correlate

×

Iscriviti alla newsletter