El sistema de inteligencia artificial fue creado por neurocientíficos de la Universidad de Texas, quienes han decodificado datos de escáneres cerebrales no invasivos y los han utilizado para reconstruir el lenguaje.
Investigadores de la Universidad de Texas han trabajado en una inteligencia artificial que pueda decodificar la actividad cerebral y convertirlo en texto continuo.
En un estudio publicado en Nature Neuroscience, Alexander Huth y sus colegas lograron convertir frases con exactitud analizando grabaciones cerebrales de resonancias magnéticas.
Cerebro – IA
La tecnología que puede crear lenguaje a partir de señales cerebrales podría ser de gran utilidad para las personas que no pueden hablar debido a afecciones como la enfermedad de las neuronas motoras, algo que incluso se han planteado otras compañías como Neuralink.
Pero estas iniciativas se han ejecutado a través de dispositivos implantados en el cerebro, como chips. Esta nueva decodificación es diferente: está usando grabaciones de la actividad cerebral para descubrir las palabras que la persona oye, imagina o dice.
La nueva investigación utilizó la señal dependiente del nivel de oxígeno en la sangre de las resonancias magnéticas funcionales, que muestra cambios en el flujo sanguíneo y los niveles de oxigenación en diferentes partes del cerebro.
Al centrarse en los patrones de actividad en las regiones del cerebro y las redes que procesan el lenguaje, los investigadores descubrieron que su decodificador podría entrenarse para reconstruir el lenguaje continuo (incluidas algunas palabras específicas y el significado general de las oraciones).
Específicamente, el decodificador basado en inteligencia artificial tomó las respuestas cerebrales de tres participantes mientras escuchaban historias y generó secuencias de palabras que probablemente produjeron esas respuestas cerebrales. Estas secuencias de palabras capturaron bien la esencia general de las historias y, en algunos casos, incluyeron palabras y frases exactas.
Los investigadores también hicieron que los participantes vieran películas mudas e imaginaran historias mientras los escaneaban. En ambos casos, el decodificador a menudo logró predecir la esencia de las historias. Por ejemplo, un usuario pensó “Todavía no tengo mi licencia de conducir”, y el decodificador predijo “Ni siquiera ha comenzado a aprender a conducir todavía”.
Así funciona
El estudio encontró que se necesitaban datos de múltiples regiones específicas del cerebro, incluida la red del habla, la región de asociación parietal-temporal-occipital y la corteza prefrontal, para las predicciones más precisas.
Una diferencia clave entre este trabajo y los esfuerzos anteriores son los datos que se decodifican. La mayoría de los sistemas de decodificación vinculan los datos del cerebro con las características motoras o la actividad registrada en las regiones del cerebro involucradas en el último paso de la salida del habla, el movimiento de la boca y la lengua. Este decodificador funciona en cambio a nivel de ideas y significados.
Eso sí, la idea de una tecnología que pueda "leer la mente" genera preocupaciones sobre la privacidad mental. Los investigadores realizaron experimentos adicionales para abordar algunas de estas preocupaciones, los cuales demostraron que no necesitamos preocuparnos todavía por que nuestros pensamientos sean decodificados mientras caminamos por la calle, o incluso sin nuestra amplia cooperación.
Te recomendamos
Comparte esta noticia