All’intelligenza artificiale manca un aspetto estremamente importante: la consapevolezza di controllare e regolare i processi cognitivi e la capacità di non sapere e ammettere di non sapere, ovvero la metacognizione. Ma, per il Dr. Stephen Fleming, anche la metacognizione dovrà diventare “intelligente”
La consapevolezza di non sapere e di essere padroni dei propri processi cognitivi è una scienza nota con il termine metacognizione, ed è l’aspetto principale dello studio presentato dal Dottor Stephen Fleming in relazione all’intelligenza artificiale. Fleming ha descritto i suoi studi in un recente articolo per il Financial Times, anticipando alcuni passi del suo nuovo libro “Know Thyself: The New Science of Self-Awareness” che uscirà a fine mese.
Il Dr. Fleming è attualmente il direttore di MetaLab, un laboratorio dell’Università di Londra che cerca di progettare esperimenti innovativi che mirino a decostruire la scienza stessa della metacognizione, e, tra le tante cose, applicare questa scienza all’intelligenza artificiale. Secondo gli studi condotti da MetaLab, questo è l’aspetto principale che separa l’uomo dall’intelligenza artificiale, che va, però, colmato.
Fleming sottolinea come, ad esempio, noi esseri umani “non solo prendiamo decisioni finanziarie o mediche ad alto rischio, consideriamo se queste decisioni siano buone o cattive.” Dato che “una cosa è essere coscienti, ma sapere che siamo coscienti, ed essere in grado di pensare alla nostra mente, è un’altra cosa.” Ed è proprio quest’altra cosa – la capacità di pensare ed essere consapevoli di farlo -, che manca all’intelligenza artificiale.
La metacognizione, applicata all’uomo, consiste quindi anche nella capacità di riconoscere quando si sbaglia, ammettere un errore, e sapere quando cercare una seconda opinione. Pensiero che l’intelligenza artificiale non è in grado di applicare. Infatti, un sistema informatico (o intelligente) non può superare ciò che gli viene “inserito” e non può ammettere un errore. Come giustamente sottolinea Fleming, se si chiedesse ad un computer di mostrare una foto di un delfino, ma nel sistema informatico non è mai stata inserita questa nozione, questo non ammetterà di non conoscere la parola delfino, ma mostrerà ciò che crede significhi questo termine. Non riesce, quindi, ad applicare la metacognizione.
MetaLab vuole però correggere questo errore, introducendo nei sistemi intelligenti un qualcosa di simile alle metacognizione. Come?
L’intelligenza artificiale è spesso troppo sicura di sé e fiduciosa delle proprie risposte (come nell’esempio del delfino). Ma se si riuscisse a inserire “l’incertezza”, la “possibilità” e la “probabilità” nelle componenti chiave di un sistema, si potrà creare una specie di metacognizione intelligente. Infatti, secondo uno studio condotto da Matthias Hein, professore di informatica presso l’Università di Tubinga, “inserire la probabilità in un sistema permette all’intelligenza artificiale di rendersi conto che non ha mai incontrato uno scenario o un’immagine prima, riducendo così la sua fiducia in situazioni non familiari.” Una cosa, quindi, simile alla metacognizione e al pensiero umano.
Dunque, inserire la scienza della metacognizione in un sistema “intelligente” sarebbe, scrive Fleming, un beneficio per l’uomo. Aumenterebbe l’affidabilità e la responsabilità di questi sistemi dato che “la capacità di dubitare, di mettersi in discussione, di perseguire ciò che ancora non conosciamo, alimenta la creatività scientifica che ha creato la stessa intelligenza artificiale.” Inoltre “espandendo la portata dell’autoconsapevolezza – sia biologica che artificiale – potremmo essere in grado di creare un mondo in cui non solo conosciamo le nostre menti, ma iniziamo anche a conoscere le menti delle nostre macchine.”