top of page
Cerca

IA: aiutare chi è affetto da disabilità verbali a comunicare tramite un algoritmo

E' evidente che l'IA sia uno dei temi caldi di questo 2020: si stanno moltiplicando iniziative, pubbliche e private, che sfruttano gli algoritmi intelligenti per gli scopi più vari. Questo studio dell'università di S. Francisco punta ad aiutare i pazienti affetti da problemi verbali o malattie neuro-degenerative a recuperare le proprie facoltà comunicative.



L’intelligenza artificiale che trasforma i pensieri in testo. E che, in futuro, potrebbe consentire alle persone con gravi disabilità verbali e fisiche di comunicare con più semplicità. Sintetizzando il linguaggio in base appunto agli input cerebrali.


L’ha messa a punto un gruppo di neuroscienziati dell’università della California-San Francisco: “Sfruttiamo la similarità concettuale fra la traduzione automatica da una lingua all’altra e il compito di decodificare il linguaggio a livello neuronale” si legge in un paper appena pubblicato su Nature Neuroscience e battezzato “Machine translation of cortical activity to text with an encoder–decoder framework”.


Cosa significa? Che il gruppo - composto da Joseph Makin, David Moses, Gopala Anumanchipalli, Josh Chartier ed Edward Chang del Center for integrative neuroscience e del Department of neurological surgery dell’UCSF - ha adottato un approccio all’AI simile a quello che si utilizza nella traduzione dei testi nelle diverse lingue, un ambito di applicazione che ha fra l’altro compiuto passi da gigante negli ultimi anni.


L’obiettivo è lo stesso: convertire una sequenza di lunghezza arbitraria in un’altra. I punti di partenza sono ovviamente diversi, perché gli input non sono testuali, come nel passaggio dal francese all'inglese, ma costituiti appunto da segnali neurali cerebrali. E la strada è ovviamente molto lunga, anche se forse ha compiuto un primo passo fuori dall’immaginario fantascientifico.


La sperimentazione è stata effettuata su volontari epilettici ai quali erano stati temporaneamente impiantati elettrodi nel cervello in preparazione di un intervento di neurochirurgia. Pazienti dunque con linguaggio intatto: lo scopo era intanto mettere alla prova l’intelligenza artificiale. Ciascuno ha poi letto delle frasi a voce alta da due dataset a disposizione, composti da descrizioni di immagini e da diverse decine di frasi e centinaia o migliaia di parole.

Ogni partecipante ha letto più volte 50 frasi, cose del tipo “Tina Turner è una cantante pop” e “C’è disordine in cucina”. Mentre le pronunciavano, i ricercatori monitoravano le attività del cervello.


Successivamente hanno fornito i dati così raccolti in pasto a un algoritmo di machine learning in grado di trasformare le onde cerebrali in stringhe di numeri che in qualche modo codificavano quelle frasi. In un passaggio ancora seguente, quelle stringhe numeriche sono state infine riportate allo stato di frasi in linguaggio naturale.


Ci sono stati ovviamente dei problemi. Qualche pasticcio del tipo “gli spinaci erano una famosa cantante pop”, oppure errori di grammatica come “alcuni adulti i bambini sono stati mangiati” e qualche frase nonsense quasi comicamente filosofica come “l’oasi era un miraggio”. Ma nel tempo, all’aumentare del corpus fornitogli, il sistema è migliorato sensibilmente.


In un caso, per esempio, ha riportato correttamente il 97% delle frasi pronunciate, codificate e decodificate, facendo segnare un tasso d’errore più basso di una trascrizione umana e frasi comprensibili a un ascoltatore umano. Anche se la soluzione dell'ateneo californiano è in grado, per il momento, di processare solo una quantità ridotta di frasi e parole, rispetto alla ricchezza di ciò che si potrebbe pensare e dunque pronunciare (o non pronunciare in caso di disabilità verbali).


I ricercatori stanno sperimentando una gamma di elettrodi ad alta densità e algoritmi di machine learning più sofisticati che confidano possano migliorare ulteriormente il discorso sintetizzato frutto dell’esperimento e di questa operazione condotta trasformando i modelli di attività cerebrale in movimenti di un tratto vocale virtuale e sintetizzando questi movimenti digitali in un’approssimazione sintetica della voce del paziente.


Secondo il paper, insomma, “è possibile creare una versione sintetizzata della voce di una persona che può essere controllata dall’attività dei centri del linguaggio del cervello”. In futuro questo approccio potrebbe tornare estremamente utile per consentire alle persone con grave disabilità del linguaggio di comunicare in modo più fluido, anche riproducendo “parte della musicalità della voce umana che trasmette le emozioni e la personalità di chi parla”.


“Lo studio è stato condotto su dei partecipanti alla ricerca con linguaggio intatto, ma la tecnologia potrebbe un giorno ridare la voce a delle persone che hanno perso la capacità di parlare a causa di paralisi e altre forme di danno neurologico" si legge nella ricerca.


Alcune persone con gravi disabilità del linguaggio causate da paralisi e altre forme di danno neurologico (ictus, trauma cranico e malattie neurodegenerative come il morbo di Parkinson, la sclerosi multipla e la sclerosi laterale amiotrofica) hanno infatti imparato nel tempo a trasmettere i loro pensieri lettera per lettera usando dispositivi che tracciano i movimenti oculari o muscolari del viso, anche i più piccoli, come accadeva per quelli della guancia con l’astrofisico Stephen Hawkings.


Ma “parlare” in questo modo è faticoso e complicato, soggetto a molti errori e ovviamente lento: di solito, dicono gli esperti, si riesce a generare una decina di parole al minuto contro le 100-150 del discorso naturale. Il nuovo sistema, sviluppato a partire da un’altra indagine firmata un paio di anni fa dallo stesso gruppo di ricerca, punta proprio a rivoluzionare quell’ambito.


221 visualizzazioni0 commenti
bottom of page