2 minute read

COME L’INTELLIGENZA ARTIFICIALE SONDERÀ I NOSTRI PENSIERI

Coglierà l’essenza delle storie che una persona ascolta o immagina

Ebbene sì, l’intelligenza artificiale potrebbe a breve fare una capatina nel nostro cervello e leggere così i nostri pensieri, traducendoli in testi. Invece di trasformare comandi o testi scritti da persone in qualcos’altro (immagini, video, eccetera) questo sistema basato sull’IA è in grado di ricostruire il pensiero e l’attività mentale delle persone rendendoli testuali, concretizzandoli. Questo pare essere il risultato della sperimentazione portata avanti da un gruppo di scienziati che ha sviluppato una sorta di intelligenza artificiale.

Advertisement

Lo studio, pubblicato sulla rivista scientifica Nature Neuroscience, è opera di Jerry Tang, un dottorando in informatica, supportato dal professore di neuroscienze e informatica Alex Huth dell’università di Austin. La sua particolarità sta nel fatto che, rispetto ad altre soluzio - ni simili, non necessita di impianti chirurgici. Non è un procedimento invasivo, cioè non prevede l’introduzione di nessun apparecchio o strumento all’interno del corpo delle persone, ma si avvale di un sistema di decodificazione linguistica (un decodificatore semantico) e di uno scanner fMRI, strumento usato per effettuare risonanze magnetiche funzionali e quindi per rilevare l’attività cerebrale.

È la prima volta che un “decodificatore” dell’attività neurale riesce in modo non invasivo a leggere nella mente intere frasi, parti di storie, e non solo parole come i prototipi precedenti erano riusciti a fare. Lo strumento è capace di capire solo con i dati della risonanza il significato di una storia solo immaginata (non ascoltata) dai partecipanti o il contenuto di un film muto visto da loro. Gli scienziati rassicurano sul fatto che la privacy è rispettata, lo strumento funziona solo sulla persona con cui è stata fatta la fase di addestramento iniziale e, per ora, non può decodificare i pensieri di chiunque. In futuro tuttavia, concludono, l’avanzamento di queste tecnologie, potrebbe essere tale da rendere necessarie politiche di protezione della privacy mentale.

Come ChatGPT di OpenAI, Google Bard e sistemi di intelligenza artificiale generativa basati su grandi modelli di linguaggio, necessita anch’esso di una fase di addestramento per riuscire a rendere testuale quello che legge. Ma il risultato, a differenza di questi ultimi, non è qualcosa di specifico, una trascrizione parola per parola; viceversa, gli sviluppatori lo hanno progettato per catturare l’essenza di ciò che viene pensato, tradotto in testo quindi per sommi capi, ma strettamente legato con quanto il modello è stato in grado di percepire.

«Per un sistema non invasivo questo è un vero passo in avanti rispetto a ciò che è stato realizzato finora, in genere in grado di fornire singole parole o frasi brevi. Stiamo facendo in modo che il modello decodifichi il linguaggio continuo per periodi di tempo più estesi e con idee più complesse», ha spiegato Alex Huth.

Dai rilevamenti dell’attività cerebrale delle persone sottoposte ai test (che consistono nel far ascoltare o dire al partecipante di immaginare di raccontare una nuova storia), ne risulta un testo che deve corrispondere strettamente, ma non letteralmente, a quanto previsto dalle parole originali del partecipante. Secondo quanto indicato nel comunicato stampa condiviso dalla stessa università texana, questo accade circa la metà delle volte per il momento, ma bisogna tener conto che il sistema è ancora in una fase embrionale.

Dicendo al partecipante una frase come “Non ho ancora la patente di guida”, il sistema di intelligenza artificiale in questione ha tradotto i suoi pensieri come “Non ha ancora iniziato a imparare a guidare”. Ascoltando invece “Non sapevo se urlare, piangere o scappare. Invece ho detto Lasciami in pace!” l’IA l’ha reso in “Ha iniziato a urlare e piangere, e poi ha semplicemente detto Ti avevo detto di lasciarmi in pace”.

Ora tutto sta a capire a cosa potrebbe servire tale sistema. Per il momento si tratta di un “prototipo” da laboratorio, chiaramente ancora da migliorare e da provare, che tuttavia potrebbe essere utile anche in altri sistemi di imaging cerebrale.

È la prima volta che un “decodificatore” dell’attività neurale riesce in modo non invasivo a leggere nella mente intere frasi, parti di storie, e non solo parole come i prototipi precedenti erano riusciti a fare.

This article is from: