www.elimparcial.es
ic_facebookic_twitteric_google

NEUROCIENCIA

Una mujer vuelve a hablar tras 20 años gracias a una interfaz cerebro-ordenador

Los investigadores conectan el implante cerebral de Ann a la computadora sintetizadora de voz.
Ampliar
Los investigadores conectan el implante cerebral de Ann a la computadora sintetizadora de voz. (Foto: Noah Berger)
EL IMPARCIAL
lunes 31 de marzo de 2025, 17:10h

Un equipo de investigadores de la Universidad de California en Berkeley y la Universidad de California en San Francisco ha logrado un avance sin precedentes en el campo de las interfaces cerebro-computadora (BCI, por sus siglas en inglés). Gracias al uso de inteligencia artificial, han desarrollado una tecnología capaz de restaurar el habla natural en personas con parálisis severa, superando el problema de la latencia en las neuroprótesis del habla.

El estudio, publicado en la revista Nature Neuroscience, introduce un método de transmisión que convierte señales cerebrales en voz audible casi en tiempo real. "Nuestro enfoque incorpora la misma capacidad de decodificación rápida de voz que tienen dispositivos como Alexa y Siri", explicó Gopala Anumanchipalli, coinvestigador principal del estudio y profesor adjunto en UC Berkeley. "Usando un algoritmo similar, hemos logrado decodificar datos neuronales y permitir por primera vez una transmisión de voz sincrónica, consiguiendo una síntesis más natural y fluida".

Esta tecnología podría mejorar significativamente la calidad de vida de las personas con parálisis grave que afecta su capacidad de hablar. "Es emocionante ver cómo los últimos avances en IA están acelerando el uso práctico de las BCI en el mundo real", afirmó Edward Chang, neurocirujano y coinvestigador principal del estudio.

El sistema funciona analizando la actividad neuronal de la corteza motora, la región del cerebro responsable del control del habla. Utilizando IA, las señales cerebrales se decodifican y se transforman en palabras, incluso sin necesidad de vocalización. Para entrenar el algoritmo, los investigadores trabajaron con Ann, una paciente con parálisis, a quien le pedían que intentara decir frases en silencio mientras su actividad cerebral era registrada. Posteriormente, usaron modelos de texto a voz para generar audio basado en su voz previa a la lesión.

Una de las limitaciones previas en este campo era la latencia: el tiempo que transcurría entre que un sujeto intentaba hablar y la generación del sonido. Estudios anteriores presentaban retrasos de hasta ocho segundos por oración, mientras que el nuevo enfoque permite generar palabras en un segundo. Además, los investigadores comprobaron que el sistema puede generalizar y reconocer palabras que no formaban parte de su conjunto de entrenamiento, como términos del alfabeto fonético de la OTAN.

"Antes no sabíamos si el habla inteligible podía transmitirse desde el cerebro en tiempo real. Ahora vemos que es posible", destacó Kaylo Littlejohn, coautora principal del estudio y estudiante de doctorado en UC Berkeley. Además, la velocidad mejorada no comprometió la precisión del sistema.

Los investigadores continúan optimizando la tecnología para mejorar la expresividad del habla, incluyendo variaciones en el tono, timbre y volumen. "Este es un desafío incluso en los sistemas de síntesis de audio convencionales, pero alcanzar un habla completamente natural es nuestro siguiente objetivo", señaló Littlejohn.

Con estos avances, la posibilidad de que las personas con parálisis severa recuperen su voz de manera natural y fluida está más cerca que nunca.

¿Te ha parecido interesante esta noticia?    Si (3)    No(0)

+
0 comentarios