Los pacientes sufrieron un derrame cerebral y ELA, lo que les quitó la capacidad de hablar. Ahora una interfaz cerebral les permite comunicarse.
Una serie de estudios ha mostrado al mundo entero como pacientes sin la capacidad de hablar pueden volver a comunicarse gracias a una interfaz cerebro-computadora.
Los artículos, publicados en Nature, de equipos independientes muestran cuán rápido está avanzando este campo, aunque aún está muy lejos de estar disponible para el público en general.
Los casos
Las investigaciones involucraron a dos participantes. La primera perdió la capacidad de hablar debido a un derrame cerebral, mientras la segunda lo perdió debido a la ELA, una enfermedad neurodegenerativa progresiva.
A cada participante se le implantó un tipo diferente de dispositivo de grabación en el cerebro y ambos lograron hablar a un ritmo de aproximadamente 60 a 70 palabras por minuto. Esto es aproximadamente la mitad de la velocidad del habla normal, pero más de cuatro veces más rápido de lo que se había informado anteriormente.
Pero esto no quedó ahí. Un equipo, dirigido por Edward Chang, neurocirujano de la Universidad de California en San Francisco, también capturó las señales cerebrales que controlan los pequeños movimientos que proporcionan las expresiones faciales, lo que les permitió crear el avatar que representaba el habla del participante del estudio casi en tiempo real.
De acuerdo con el MIT Technology Review, los implantes no registran pensamientos. En este caso, con el doble de electrodos a los estudios previos, el dispositivo captura las señales eléctricas que controlan los movimientos musculares de los labios, la lengua, la mandíbula y la laringe, todos los movimientos que permiten el habla.
Un puerto ubicado en el cuero cabelludo permite al equipo transferir esas señales a una computadora, donde los algoritmos de inteligencia artificial las decodifican y un modelo de lenguaje ayuda a proporcionar capacidades de autocorrección para mejorar la precisión.
En el caso de la paciente con derrame cerebral, el equipo tradujo la actividad cerebral en palabras escritas a un ritmo de 78 palabras por minuto, utilizando un vocabulario de 1024 palabras, con una tasa de error del 23 %.
“El habla no se trata sólo de comunicar palabras, sino también de quiénes somos. Nuestra voz y expresiones son parte de nuestra identidad”, dice Chang. El equipo utilizó una grabación del vídeo de su boda para replicar su voz, por lo que el avatar incluso suena como la paciente.
Gran avance
En el segundo caso, con la paciente con ELA llamada Pat, el estudio fue dirigido por investigadores de Stanford.
La estudiada tuvo cuatro implantes más pequeños, cada uno del tamaño de una pastilla, para registrar señales de neuronas individuales. La paciente entrenó el sistema leyendo sílabas, palabras y oraciones a lo largo de 25 sesiones.
Luego, los investigadores probaron la tecnología haciéndole leer oraciones que no habían sido utilizadas durante el entrenamiento. Cuando esas oraciones se extrajeron de un vocabulario de 50 palabras, la tasa de error fue de aproximadamente el 9%. Cuando el equipo amplió el vocabulario a 125 mil palabras, que abarca gran parte del idioma inglés, la tasa de error aumentó a aproximadamente el 24 %.
Los científicos están convencidos de que pueden hacerlo mejor. "Lo interesante es que a medida que se añaden más electrodos de este tipo, el rendimiento del decodificador sigue aumentando", afirma Francis Willett, neurocientífico y autor del artículo de Stanford. "Si podemos conseguir más electrodos y más neuronas, entonces deberíamos poder ser aún más precisos".
Te recomendamos
Comparte esta noticia