I ricercatori dell’Università del Texas hanno utilizzato modelli linguistici per potenziare i sistemi in grado di interpretare i segnali del cervello. E non solo sono riusciti a interpretare dei pensieri, ma credono che l’intelligenza artificiale aiuterà a svelare i misteri di quella biologica
Paradossalmente, e al contrario di quanto ha pensato la maggior parte dei ricercatori per anni, l’intelligenza artificiale sta aiutando a decifrare quella biologica. L’ultima prova arriva dall’Università del Texas di Austin, dove i ricercatori hanno addestrato un modello linguistico (non dissimile da quello alla base di ChatGpt) a decifrare il succo di una gamma limitata di frasi – “lette” dalle immagini di una risonanza magnetica del cervello umano. In altre parole, direttamente dal pensiero.
Gli autori dello studio, pubblicato a inizio maggio sull’autorevole rivista Nature Neurosciences, hanno chiesto a dei volontari di ascoltare dei podcast per diverse ore, oppure di ricordarne dei passaggi, mentre eseguivano una serie di risonanze magnetiche. Dopodiché hanno utilizzato i dati delle immagini cerebrali per ricostruire il contenuto di quelle frasi, avvalendosi di reti neurali. Ma il programma dei ricercatori non ha rilevato le parole a cui stavano pensando i soggetti: ha catturato il significato del loro pensiero.
Per esempio, quando un volontario ha sentito uno speaker dire “non ho ancora la patente”, il programma ha decifrato le scansioni cerebrali della persona e ha restituito “non ha nemmeno iniziato a imparare a guidare”. Non una resa parola per parola, ma un’approssimazione valida dell’idea espressa nella frase originale. E lo stesso programma IA è stato anche in grado, sempre a partire dalle scansioni cerebrali, di scrivere riassunti approssimativi di brevi video che i soggetti hanno guardato durante l’esperimento.
Naturalmente l’esperimento va preso con le pinze: non esiste ancora un programma in grado di interpretare qualunque pensiero di una persona qualsiasi a partire dagli impulsi cerebrali. Il risultato è “più che altro un trucco da salotto”, come ha detto Alexander Huth, neuroscienziato all’Università del Texas di Austin e coautore dello studio, a The Atlantic. Il programma deve essere messo a punto per ogni singolo soggetto, i modelli rimangono relativamente imprecisi, e la maggior parte delle tecniche di scansione cerebrale fornisce dati “a bassissima risoluzione”.
Tuttavia, è opportuno distogliere gli occhi dalla luna e guardare il dito. Perché come spiegano gli stessi ricercatori, il vero valore di questo lavoro sta nel capire con precisione, ed eventualmente prevedere, quali parti del cervello si accendono durante l’ascolto o l’immaginazione delle parole. Il che può aiutare a scoprire i meccanismi attraverso cui i nostri neuroni lavorano insieme per creare uno degli attributi fondamentali dell’intelligenza umana: il linguaggio.
Questa è la vera rivoluzione in potenza per le neuroscienze, una branca infinitamente complessa del sapere che tuttora non è in grado di rivelare come funzioni davvero il nostro cervello. In quest’ottica, ha spiegato Huth, il programma che hanno utilizzato i ricercatori texani suggerisce che “questi modelli IA catturano effettivamente molti dati su come il cervello elabora il linguaggio”. È l’ennesima rivalsa su quella che è stata a lungo la corrente di pensiero dominante nel settore, secondo cui le reti neurali dietro all’IA sono troppo grossolane per imitare fedelmente il comportamento di un cervello biologico.
La posizione di fondo non è errata. Del resto, un bambino impara a parlare utilizzando meno dell’1% della quantità di parole utilizzate da OpenAI per addestrare Gpt-4, il suo modello più avanzato. Segno che la mente umana – o meglio, l’intuizione umana – si basa su una “macchina” più sottile e sofisticata. E resta il fatto che un’IA non comprende davvero il significato delle parole che utilizza; al momento si “limita” a sintetizzare e replicare una mole immensa di contenuto generato da intelligenze biologiche.
È improbabile, dunque, che questi modelli IA riescano a replicare appieno il funzionamento di un cervello umano. Tuttavia, lo studio texano è l’ultimo di una serie che suggerisce che questi modelli possono rivelarsi strumenti potenti per capirlo. Negli ultimi anni, i ricercatori hanno dimostrato che il funzionamento interno di programmi IA avanzati offre un modello matematico promettente di come la nostra mente elabora il linguaggio. L’idea è che se un modello viene addestrato con un obiettivo specifico, come imparare a prevedere la parola successiva in una sequenza (il meccanismo-base di ChatGpt), è possibile arrivare a capire come ci riesca la nostra mente.
Si tratta, in ultima analisi, di creare con linguaggio matematico e informatico una rappresentazione di come si comportano i neuroni e gli impulsi elettrici. Da lì si può provare a estrapolare il sistema di codifica, manipolazione e decodifica dei dati. Sempre più ricercatori si stanno dedicando alla branca nascente dello studio della rete linguistica del cervello, e ognuno degli studi che pubblicano potrebbe rivelarsi la base di partenza per una teoria computazionale del funzionamento del cervello. O perlomeno una “mappa” migliore per affrontare territori neurologici sconosciuti.