

Secciones
Servicios
Destacamos
Edición
Un derrame cerebral dejó a Ann, una profesora de matemáticas, paralizada y sin poder hablar. Tenía 30 años. Ahora, con 48, ha conseguido volver a ... mantener una conversación. El milagro llega de la mano de un implante cerebral que utiliza Inteligencia Artificial para convertir en sonidos lo que piensa casi en tiempo real
La máquina, una neuroprótesis, ha sido desarrollada por un equipo de investigadores de las universidades California y San Francisco. Cuenta con 253 electrodos que están conectados al cerebro de Ann, concretamente al hemisferio izquierdo, que es el que controla el habla. La intervención se realizó en septiembre de 2022. Y son ellos los que captan la actividad cerebral de la paciente y la transmiten a un ordenador, donde con ayuda de la IA, un voz similar a de Ann las dice en alto.
Aunque parece ciencia ficción, se trata de algo muy real. Y lo que es más importante genera esperanzas a otras personas que como esta maestra de secundaria ha perdido la capacidad de mover las cuerdas vocales, pero no la de que su cerebro intente comunicarse. «Interceptamos las señales en el punto en que el pensamiento se convierte en vocalización. Decodificamos la señal después de que se haya pensado qué decir, después de haber decidido qué palabras usar y cómo mover los músculos del aparato fonador», explica Cheol Jun Cho, uno de los autores principales en el trabajo, presentado por la revista 'Nature' este lunes.
El proceso no ha sido fácil. Y de hecho, ha requerido mucha paciencia por parte de Ann, pero también mucha perserverancia de los investigadores. En un principio, utilizaron una interfaz cerebro-ordenador (BCI, por sus siglas en inglés) para decodificar los pensamientos y traducirlos al habla. que conllevaba un retraso de ocho segundos. Mantener una conversación con ella, por tanto, era algo muy difícil.
Como esa situación no era lo que querían, continuaron en el desarrollo de un nuevo modelo que es que ahora se ha dado a conocer y que es capaz de reducir el retraso de 8 segundo a apenas 80 milisegundos. «Nuestro nuevo enfoque en tiempo real convierte las señales cerebrales en su voz personalizada casi inmediatamente», explica Gopala Anumanchipalli, segundo coautor. Este avance «nos acerca más a mejorar drásticamente la calidad de vida de las personas con parálisis vocal».
El modelo utiliza un algoritmo basado en una técnica de inteligencia artificial (IA) llamada aprendizaje profundo, que fue entrenado previamente a partir de miles de frases que Ann intentó pronunciar silenciosamente. Durante la investigación, ella podía ver las oraciones en la pantalla y luego, escuchar su voz, algo que llegó a emocionarla. «Le reportó una sensación de corporalidad», dijo Anumanchipalli.
Y le ha hecho replantearse qué hacer a partir de ahora. Según ha comunicado al equipo, quiere convertirse en consejera universitaria. Sin embargo, aún «falta algo para eso», reconocen los investigadores. El modelo no es totalmente exacto, y el vocabulario es limitado por el momento a 1.024 palabras. Para que sea clínicamente viable como neuroprótesis del habla necesita mejoras en las que continúan trabajando
Ahora mismo, se están centrando en mejorar los algoritmos para generar el habla con más rapidez y precisión. Y también quieren que la voz que los resproduzca gane en expresividad con cambios de entonación y volumen como los que se producen en el habla natural. «Tenemos un trabajo en curso para intentar ver si podemos decodificar estas características paralingüísticas a partir de la actividad cerebral», concluye Kaylo Littlejohn, también coautor de esta investigación.
¿Tienes una suscripción? Inicia sesión
Publicidad
Publicidad
Te puede interesar
Publicidad
Publicidad
Favoritos de los suscriptores
Esta funcionalidad es exclusiva para suscriptores.
Reporta un error en esta noticia
Comentar es una ventaja exclusiva para suscriptores
¿Ya eres suscriptor?
Inicia sesiónNecesitas ser suscriptor para poder votar.