X
Mundo

La ciencia y la IA devuelven la voz a una mujer cuadripléjica después de 18 años

El vocabulario es limitado por el momento a 1024 palabras.

31/03/2025

Un implante cerebral que utiliza  inteligencia artificial permitió hablar a una mujer que estaba cuadripléjica hace 18 años al convertir casi simultáneamente en habla  sus pensamientos. 

HACÉ CLICK AQUÍ PARA UNIRTE AL CANAL DE WHATSAPP DE DIARIO PANORAMA Y ESTAR SIEMPRE INFORMADO

Lo anunciaron investigadores estadounidenses.

Aunque hasta ahora este dispositivo se probó en una sola persona, el implante  que conecta ondas cerebrales a un ordenador generó esperanzas de  recuperar la voz en individuos que perdieron por completo la capacidad  de comunicarse.

El  equipo de investigadores, con sede en California, había utilizado  previamente una interfaz cerebro-ordenador (BCI, por sus siglas en  inglés) para decodificar los pensamientos de Ann, una mujer de 47 años  con cuadriplejía, y traducirlos en habla.

Sin  embargo, había un retraso de ocho segundos entre la generación de  pensamientos y la producción del habla leída en voz alta por una  computadora.

Esto significaba que mantener una conversación fluida estaba fuera del alcance de Ann, una profesora de matemáticas de  secundaria que no ha podido hablar desde que sufrió un accidente cerebrovascular hace 18 años.

Pero el nuevo modelo del equipo, presentado en la revista Nature Neuroscience, transformó los pensamientos de Ann en una versión de lo que era su voz con apenas un retraso de 80 milisegundos.

”Nuestro nuevo enfoque en tiempo  real convierte las señales cerebrales en su voz personalizada casi  inmediatamente, en menos de un segundo desde que intenta hablar”, dijo  el principal autor del estudio, Gopala Anumanchipalli, de la  Universidad de California, en Berkeley. Anumanchipalli agregó que la  meta final de Ann es convertirse en consejera universitaria.

”Aunque  todavía estamos lejos de lograr eso para Ann, este avance nos acerca  más a mejorar la calidad de vida de las personas con parálisis vocal”,  indicó. Durante la investigación, Ann podía ver oraciones en una  pantalla -del tipo “Entonces me amas”- que ella pronunciaba para sí misma en su mente.

Estas  señales cerebrales fueron rápidamente convertidas en su voz, que los  investigadores reconstruyeron a partir de grabaciones previas a su  lesión. Ann estaba “muy emocionada al escuchar su voz, y reportó una  sensación de corporalidad”, dijo Anumanchipalli.

El  modelo utiliza un algoritmo basado en una técnica de inteligencia  artificial (IA) llamada aprendizaje profundo, que fue entrenado  previamente a partir de miles de frases que Ann intentó pronunciar  silenciosamente. El modelo no es totalmente exacto, y el vocabulario es limitado por el momento a 1024 palabras.

Para Edward Chang,  otro de los científicos principales, esta nueva tecnología “tiene un  enorme potencial” para mejorar la calidad de vida de las personas con  parálisis grave que afecta al habla. “Es emocionante que los últimos  avances en IA estén acelerando numerosas las interfaces cerebro  -ordenador para su uso práctico en el mundo real en un futuro próximo”,  dijo.

Para  recopilar los datos necesarios para entrenar su algoritmo, los  investigadores primero hicieron que el participante mirara una  indicación en la pantalla, como la frase “hola, ¿cómo estás?”, y luego  intentara pronunciar esa frase en silencio.

Así,  los autores entrenaron una red neuronal de aprendizaje profundo  utilizando la actividad cerebral del participante, que se registró  mediante electrodos implantados sobre su corteza sensomotora del habla.  Mientras tanto, pronunciaba internamente en su cerebro frases completas  que contienen 1024 palabras únicas.

A continuación, se utilizó este modelo para descodificar el habla en  línea, simultáneamente con la intención vocal de la participante (Ann), y  luego producir audio imitando su voz -esta había sido entrenada  utilizando un clip de ella hablando antes de la lesión-.

Cheol Jun Cho,  otro de los firmantes del trabajo, resume que la neuroprótesis funciona  tomando muestras de datos neuronales de la corteza motora, la parte del  cerebro que controla la producción del habla, y luego utiliza la IA  para descodificar la función cerebral y convertirla en habla.

“Básicamente,  interceptamos las señales en las que el pensamiento se traduce en  articulación (...). Así que lo que estamos descodificando es después de  que se haya producido un pensamiento, después de que hayamos decidido  qué decir, después de que hayamos decidido qué palabras y cómo mover los  músculos del tracto utilizar vocal”, indicó.