Il Prof. Frank Guenter
Frank Guenther, dell’Università di Boston ed un suo collega, Phil Kennedy, hanno sperimentato la nuova tecnologia su Erik Ramsey, un ragazzo rimasto completamente paralizzato dall’età di 16 anni dopo un ictus seguito a un incidente d’auto, dopo il quale Ramsey è stato in grado di comunicare solamente attraverso i movimenti degli occhi.
La zona del cervello che
risponde ai comandi vocali
Questo stato, denominato "Locked-in Syndrome", molto simile a quello vegetativo permanente, ha però rispetto a quella tragica condizione (ahimè nota a causa della lunga agonia di Eluana Englaro) una "finestra" aperta al mondo: il soggetto comprende gli stimoli ambientali anche se ha il corpo interamente paralizzato.
Da 20 anni i ricercatori, Guenter & Kennedy, lavoravano per mettere a punto un modello della parola, chiamato neurale: una ricostruzione a livello di singoli neuroni di tutti i meccanismi che ci permettono di comunicare verbalmente.
Schemi ed immagini dell'impianto "neurale" per la connessione cervello-computer
Erik Ramsey assieme al professor Phil Kennedy
Grazie a questo modello hanno potuto scrivere il software che traduce in suoni i segnali del cervello di Ramsey.
Lo hanno fatto anche dopo un’attenta analisi del cervello di Ramsey: mentre tentava di parlare è stato possibile individuare la zona esatta in cui impiantare gli elettrodi che misurano i segnali.
In seguito, direttamente nella zona coinvolta è stato installato un piccolo cono di vetro con tre elettrodi, più sottili di un capello attaccato a un piccolo dispositivo che trasmette i segnali a un computer, a sua volta collegato al sintetizzatore vocale, tramite un trasmettitore radio FM.
La tecnologia utilizzata, un esempio di "Brain Computer Interface” (BCI), è la prima che consente al beneficiario di emettere dei veri e propri suoni, e lo fa in tempo reale.
Altre interfacce, infatti, consentono oggi di visualizzare delle parole sul monitor di un computer ma ciò richiede del tempo: massimo 2 parole al minuto.
Stando a quanto pubblicato sulla rivista scientifica PLoS ONE il sistema permetterà molto presto di tenere delle conversazioni normali.
“Grazie a questa interfaccia cerebrale - ha spiegato Guenther alla Cnn - l’utente potrà controllare direttamente l’uscita audio del computer, gestendola quasi come fosse la propria lingua”.
L’utilizzatore di questo strumento impara a parlare come se avesse una vera e propria bocca artificiale.
L’intero processo, dalla generazione del segnale nel cervello a quella del suono, richiede circa 50 millesimi di secondo, più o meno come nella parola normale.
Il dispositivo è stato impiantato quattro anni fa, ma ci è voluto poi molto tempo, e molta frustrazione, perché il ragazzo riuscisse a emettere i primi suoni.
Ci vorranno ancora molti anni prima che la tecnologia possa uscire dai laboratori, ma le potenzialità sono talmente grandi che qualcuno si interroga sul problema etico, su come e quando la tecnologia verrà usata per “migliorare” individui sani.