Dar voce a chi è muto

Quando pensare diviene parola.

Grazie alle neuroprotesi e interfacce cervello computer si possono ascrivere, in questi giorni, evidenti successi. In alcuni articoli comparsi su Nature tra il 22 e il 25 agosto 2023 dimostrano quanto la scienza legata alla biotecnologia terapeutica stia facendo passi da gigante.

Le varie interfacce degli impianti cervello macchina sono state migliorate nelle loro prestazioni. Alle persone con impianto e ai pc ad esse connesse, vengono richieste performance sempre maggiori.

Passare dal semplice pensiero espresso interiormente al suo corrisponde verbale non è cosa da poco. immaginiamo di pensare e una voce, modulata e campionata per essere il più simile alla mia, proveniente da un pc traduce il mio pensiero in parole. Ovviamente si tratta di connettere solo le aree del linguaggio non di tutto il cervello.

Il solo atto di voler dire qualcosa traduce questo pensiero in parole. Tuttavia esperimenti su questo fronte e successi in questo campo ce ne sono già, ma ora, con l’avvento della intelligenza artificiale il passo verso una sempre più precisa decodifica del pensiero -parola è divenuta una realtà.

Proprio in questi giorni si può leggere il resoconto di una ricerca dell'Università della California a San Francisco e Berkeley sulle capacità di una interfaccia cervello-computer basata sulla AI (intelligenza artificiale).

Gli stessi ricercatori cono riusciti a dar voce ad una donna paralizzata causa di un ictus al tronco cefalico da oltre 18 anni. Per riuscire nell’intento l’equipe capitanata dal neurochirurgo Edward Chang, ha impiantato una particolare pellicola estremamente sottile coperta di 253 elettrodi a forma rettangolare su un'area del cervello importante per la comunicazione.

Addestrando sia la donna a pensare in un certo modo e la macchina a riconoscere i processi di pensiero e le stimolazioni neurali che avrebbero permesso le espressioni facciali. A questo punto un avatar, presente su di uno schermo, riproduceva suoni verbali ed espressioni facciali coerenti con quanto la donna intendesse dire.

Anche la voce è stata modulata e campionata in modo da risultare simile, se non del tutto uguale, alla voce della dona prima dell’ictus tanto da farla riconoscere come familiare. La cosa sconvolgente è che è la prima volta la mondo che si riesce in una impresa di questo tipo. Linguaggio ed espressioni facciali decodificate tramite soli segnali neurali.

Kaylo Littlejohn firmatario dello studio ha dichiarato: “Siamo riusciti a recuperare le connessioni tra il cervello e il tratto vocale che sono state interrotte dall'ictus. Quando la paziente ha utilizzato per la prima volta questo sistema per parlare e muovere il volto dell'avatar in tandem, sapevo che sarebbe stato qualcosa che avrebbe avuto un impatto reale”. 

La sfida dei ricercatori ora è riuscire a fare in modo di poter ottenere gli stessi risultati con una connessione wireless. Al momento, per poter parlare tramite il pc, occorre essere connessi fisicamente al sistema.

David Moses co- primo autore dello studio ha dichiarato: “Dare alle persone la possibilità di controllare liberamente i propri computer e telefoni con questa tecnologia avrebbe importanti effetti sulla loro autonomia e sulle interazioni sociali”.

 Fonte https://www.nature.com/articles/s41586-023-06443-4

 

© 2023 CIVICO20NEWS - riproduzione riservata

Stampa solo il testo dell'articolo Stampa l'articolo con le immagini

Articolo pubblicato il 26/08/2023