Buscar
RPP Noticias
Estás escuchando En vivo
 
00:00 / 00:00
Lima
89.7 FM /730 AM
Arequipa
102.3 FM / 1170 AM
Chiclayo
96.7 FM / 870 AM
Huancayo
97.3 FM / 1140 AM
Trujillo
90.9 FM / 790 AM
Piura
103.3 FM / 920 AM
Cusco
93.3 FM
Cajamarca
100.7 FM / 1130 AM
La información más relevante de la actualidad al momento
Actualizado hace 0 minutos
Entrevistas ADN
Desde el sábado puerto de Chancay comenzará a operar carga, anunció gerente general adjunto del concesionario
EP 1748 • 08:36
El Club de la Green Card
¿Quiénes pueden recibir la pensión de un familiar fallecido en EE.UU.?
EP 124 • 01:30
RPP Data
¿Qué hacer para que Lima Metropolitana no siga creciendo de forma desordenada?
EP 237 • 02:58

Interfaz cerebral permite a paciente sin capacidad de habla comunicarse a través de un avatar digital

Una paciente sufrió un derrame cerebral hace 18 años. Sus señales cerebrales ahora se traducen en habla sintetizada y en los movimientos faciales del avatar.
Una paciente sufrió un derrame cerebral hace 18 años. Sus señales cerebrales ahora se traducen en habla sintetizada y en los movimientos faciales del avatar. | Fuente: UC San Francisco (UCSF)

Los pacientes sufrieron un derrame cerebral y ELA, lo que les quitó la capacidad de hablar. Ahora una interfaz cerebral les permite comunicarse.

Todas las noticias en tu celular
¡Únete aquí a nuestro canal de WhatsApp!

Una serie de estudios ha mostrado al mundo entero como pacientes sin la capacidad de hablar pueden volver a comunicarse gracias a una interfaz cerebro-computadora.

Los artículos, publicados en Nature, de equipos independientes muestran cuán rápido está avanzando este campo, aunque aún está muy lejos de estar disponible para el público en general.

Te recomendamos

Los casos

Las investigaciones involucraron a dos participantes. La primera perdió la capacidad de hablar debido a un derrame cerebral, mientras la segunda lo perdió debido a la ELA, una enfermedad neurodegenerativa progresiva.

A cada participante se le implantó un tipo diferente de dispositivo de grabación en el cerebro y ambos lograron hablar a un ritmo de aproximadamente 60 a 70 palabras por minuto. Esto es aproximadamente la mitad de la velocidad del habla normal, pero más de cuatro veces más rápido de lo que se había informado anteriormente.

Pero esto no quedó ahí. Un equipo, dirigido por Edward Chang, neurocirujano de la Universidad de California en San Francisco, también capturó las señales cerebrales que controlan los pequeños movimientos que proporcionan las expresiones faciales, lo que les permitió crear el avatar que representaba el habla del participante del estudio casi en tiempo real.

De acuerdo con el MIT Technology Review, los implantes no registran pensamientos. En este caso, con el doble de electrodos a los estudios previos, el dispositivo captura las señales eléctricas que controlan los movimientos musculares de los labios, la lengua, la mandíbula y la laringe, todos los movimientos que permiten el habla.

Un puerto ubicado en el cuero cabelludo permite al equipo transferir esas señales a una computadora, donde los algoritmos de inteligencia artificial las decodifican y un modelo de lenguaje ayuda a proporcionar capacidades de autocorrección para mejorar la precisión.

En el caso de la paciente con derrame cerebral, el equipo tradujo la actividad cerebral en palabras escritas a un ritmo de 78 palabras por minuto, utilizando un vocabulario de 1024 palabras, con una tasa de error del 23 %.

“El habla no se trata sólo de comunicar palabras, sino también de quiénes somos. Nuestra voz y expresiones son parte de nuestra identidad”, dice Chang. El equipo utilizó una grabación del vídeo de su boda para replicar su voz, por lo que el avatar incluso suena como la paciente.

Gran avance

En el segundo caso, con la paciente con ELA llamada Pat, el estudio fue dirigido por investigadores de Stanford.

La estudiada tuvo cuatro implantes más pequeños, cada uno del tamaño de una pastilla, para registrar señales de neuronas individuales. La paciente entrenó el sistema leyendo sílabas, palabras y oraciones a lo largo de 25 sesiones.

Luego, los investigadores probaron la tecnología haciéndole leer oraciones que no habían sido utilizadas durante el entrenamiento. Cuando esas oraciones se extrajeron de un vocabulario de 50 palabras, la tasa de error fue de aproximadamente el 9%. Cuando el equipo amplió el vocabulario a 125 mil palabras, que abarca gran parte del idioma inglés, la tasa de error aumentó a aproximadamente el 24 %.

Los científicos están convencidos de que pueden hacerlo mejor. "Lo interesante es que a medida que se añaden más electrodos de este tipo, el rendimiento del decodificador sigue aumentando", afirma Francis Willett, neurocientífico y autor del artículo de Stanford. "Si podemos conseguir más electrodos y más neuronas, entonces deberíamos poder ser aún más precisos".

Te recomendamos

Apasionado de los esports desde joven, afición que me permitió acceder al mundo del periodismo. Escribo sobre videojuegos, tecnología, criptomonedas, ciencias y lucha libre en RPP Noticias.

Tags

Lo último en Más Ciencia

Lo más leído

Suscribirte al boletín de tus noticias preferidas

Suscríbete a nuestros boletines y actualiza tus preferencias

Buzon
Al suscribirte, aceptas nuestras políticas de privacidad

Contenido promocionado

Taboola
SIGUIENTE NOTA