Al vigilar la actividad cerebral, la tecnología puede reconstruir las palabras que una persona elabora en la mente con una claridad sin precedente.
Este avance, que aprovecha el poder de los sintetizadores de voz y la inteligencia artificial, podría llevar a nuevas formas para que las computadoras se comuniquen directamente con el cerebro.
También sienta las bases para ayudar a las personas que no pueden hablar, como las que viven con esclerosis lateral amiotrófica (ELA) o que se están recuperando de un derrame cerebral, a recobrar su capacidad de comunicarse con el mundo exterior.
Los hallazgos fueron publicados en Scientific Reports este martes.
Nuestras voces nos ayudan a conectarnos con nuestros amigos, familiares y con el mundo que nos rodea, por lo que perder el poder de la voz debido a una lesión o enfermedad es devastador
, señaló Nima Mesgarani, autor principal del artículo e investigador del Instituto de Comportamiento Mental Cerebral Mortimer B. Zuckerman de la Universidad de Columbia.
Con el nuevo estudio, tenemos una forma potencial de restaurar ese poder. Hemos demostrado que, con la tecnología correcta, los pensamientos de estas personas pueden ser descifrados y entendidos por cualquier oyente.
Décadas de investigación han demostrado que cuando las personas hablan, o incluso se imaginan hablando, aparecen en su cerebro pautas reveladores de actividad. Una de ellas de señales distinta (pero reconocible) también surge cuando escuchamos a alguien hablar, o imaginamos escuchar.
Los expertos, que tratan de registrar y decodificar esas pautas, ven un futuro en el que los pensamientos no tienen que permanecer ocultos en el cerebro, sino pueden traducirse a voz a voluntad.
Pero lograr esta hazaña fue desafiante. Los primeros esfuerzos para descodificar las señales cerebrales de Mesgarani y otros expertos se centraron en modelos computacionales simples que analizaban espectrogramas, representaciones visuales de frecuencias de sonido.
Sin embargo, debido a que este enfoque no ha logrado producir nada que se parezca al habla inteligible, el equipo recurrió a un vocoder,algoritmo de computadora que puede sintetizar el habla tras recibir capacitación sobre las grabaciones de hablantes.
Esta es la tecnología utilizada por Amazon Echo y Apple Siri para dar respuestas verbales a nuestras preguntas
, agregó Mesgarani, también profesor en la Escuela de Ingeniería y Ciencias Aplicadas de la Fundación Fu de Columbia.
Actividad cerebral
Para enseñar al vocoder a interpretar la actividad cerebral, Mesgarani formó un equipo con Ashesh Dinesh Mehta, neurocirujano del Instituto de Neurociencia de Northwell Health Physician Partners, que trata a pacientes con epilepsia, algunos de los cuales deben someterse a cirugías regulares.
Al trabajar con Mehta, pedimos a los pacientes con epilepsia que ya se sometieron a una cirugía cerebral que escucharan las oraciones pronunciadas por diferentes personas, mientras medíamos las pautas de actividad del cerebro
, puntualizó Mesgarani. “Esas pautas neurales entrenaron al vocoderâ€.
Luego, los investigadores pidieron a esos pacientes que escucharan a los oradores recitando dígitos entre cero y 9, mientras registraban las señales cerebrales que luego podrían ejecutarse a través del vocoder.El sonido producido por el algoritmo en respuesta a esas señales fue analizado y limpiado por redes neuronales, tipo de inteligencia artificial que imita la estructura de las neuronas en el cerebro biológico.
El resultado fue una voz de sonido robótico que recitaba una secuencia de números. Para probar la precisión de la grabación, Mesgarani y su equipo encargaron a las personas que la escucharan e informaran lo que oyeran.