Implantes que convierten pensamientos en mandarín
La primera decodificación exitosa de habla tonal en tiempo real promete revolucionar las interfaces cerebro-ordenador para miles de millones de hablantes de lenguas tonales
Vías neuronales que convergen en caracteres chinos fluidos, simbolizando la decodificación del habla mandarín mediante una interfaz cerebro-ordenador. / IA/T21
Redacción T21
Madrid 10 NOV 2025
Dentro del cráneo, donde nadie la ve, existe una fábrica de palabras. Genera significados que se transforman en tonos, matices, ritmos. Durante milenios, solo nuestros labios podían exportar esa mercancía. Ahora, gracias a electrodos del tamaño de un cabello y algoritmos entrenados por años, neurocientíficos chinos han abierto un canal que permite que el pensamiento en mandarín salga al mundo, sin pasar por la voz.
Un equipo de investigación en Shanghái ha logrado descifrar el habla en mandarín (uno de los idiomas más complejos de procesar) a partir de señales neuronales, utilizando implantes cerebrales y técnicas avanzadas de inteligencia artificial. El mandarín es la lengua materna de más de 900 millones de hablantes y pertenece a una familia de idiomas tonales que representa la mayoría de las lenguas del mundo. Hasta ahora era completamente invisible para la tecnología.
La proeza conseguida en este nuevo trabajo, publicada en la revista Science Advances, representa un giro histórico en el campo de las interfaces cerebro-ordenador (BCI, por sus siglas en inglés) y abre la puerta a que millones de personas que hablan lenguas tonales —como el mandarín— recuperen la capacidad de comunicarse después de un ictus o una enfermedad neurológica que les haya arrebatado el habla.
Hasta ahora, la mayoría de los desarrollos en BCIs que convierten señales cerebrales en palabras se habían enfocado en el inglés y otras lenguas no tonales, cuya estructura resulta mucho menos compleja que la de idiomas como el chino mandarín, donde el matiz tonal —el cambio de la entonación— determina el significado de las palabras.
Datos clave de esta investigación
- Hallazgo principal: Decodificación en tiempo real de habla en mandarín desde señales cerebrales mediante implantes y algoritmos de IA.
- Metodología: Registro de actividad cerebral mientras el paciente repetía 400 sílabas tonales durante dos semanas de hospitalización.
- Resultado destacado: El sistema alcanzó el 70% de precisión y 50 caracteres por minuto, proyectando caracteres chinos correctos en la pantalla en tiempo real.
- Implicación social: Abre camino para restaurar la comunicación en millones de personas con pérdida de habla, especialmente hablantes de lenguas tonales.
- Próximos pasos: Aumentar velocidad y precisión, desarrollar implantes inalámbricos y trasladar tecnología a pacientes con dificultades reales del habla.
Solución a medida
Esta diferencia añade un reto significativo: los dispositivos y algoritmos desarrollados para inglés no son suficientes para capturar la riqueza y dificultad del mandarín, haciendo indispensable crear soluciones específicas para estas lenguas.
El equipo, dirigido por el neurocirujano Jinsong Wu, de la Universidad Fudan, y el ingeniero neural Zhitao Zhou, del Laboratorio Clave de Investigación Clínica y Traslacional de Interfaces Cerebro-Ordenador de Shanghái, ha trabajado durante años en este desafío, motivado por el deseo de devolver la voz a pacientes que la han perdido.
En experimentos previos, lograron registrar la actividad cerebral de personas que hablaban mandarín durante cirugías de tumores cerebrales —ya que el cerebro es insensible al dolor y los pacientes pueden quedarse despiertos— y comprobaron que podían identificar algunas sílabas y tonos del idioma.
400 sílabas
En el nuevo estudio, los investigadores aprovecharon una oportunidad única: monitorizar a una paciente epiléptica a la que se le habían implantado electrodos temporalmente para planificar su operación. Durante casi dos semanas de hospitalización, la voluntaria repitió unos 400 tipos de sílabas tonales mientras su actividad cerebral era registrada minuciosamente. Este catálogo de datos permitió entrenar el sistema BCI para que fuera capaz de traducir, en tiempo real, la actividad neuronal en caracteres chinos proyectados en una pantalla.
Así, en diciembre de 2024, la paciente pudo enviar saludos breves de Año Nuevo mediante el pensamiento y el habla, presenciando cómo sus palabras aparecían en caracteres ante sus ojos.
Salto tecnológico
Si bien la comunicación resultaba todavía lenta —aproximadamente 50 caracteres chinos por minuto, apenas una quinta parte de la velocidad normal— y la precisión rondaba el 70%, el salto tecnológico es notable. Los investigadores subrayan que trabajar con personas sanas genera datos mucho más limpios que hacerlo con quienes ya han perdido la capacidad de hablar, lo que implica que queda un largo camino hasta que pueda trasladarse este avance a pacientes reales. Además, el experimento se centró en el habla en voz alta, no en la imaginación silenciosa de palabras, por lo que el campo de mejora es amplio y prometedor.
Precedentes
El trabajo de Shanghái es solo uno entre varios avances recientes en China. Por ejemplo, en abril de 2025, otro grupo en la Universidad Westlake publicó resultados similares con pacientes epilépticos que también aportaron decenas de horas de muestras fonéticas antes de sus intervenciones quirúrgicas. Su sistema fue capaz de descifrar palabras y frases con una tasa de acierto equiparable, sosteniendo la importancia de mapear robustamente las sílabas como clave para decodificar la lengua.
Expertos ajenos al estudio, como Matthew Leonard de la Universidad de California en San Francisco, o Sergey Stavisky de UC Davis, citados en otro artículo de la revista Science, coinciden en que la complejidad del mandarín ha supuesto una barrera añadida al desarrollo de prótesis lingüísticas, pero que el salto conseguido en la decodificación online —es decir, en tiempo real durante el propio habla y no sobre grabaciones previas— marca un antes y un después.
El siguiente reto es acelerar y perfeccionar la decodificación, así como probar los dispositivos en pacientes con dificultades del habla por ictus o enfermedades neurodegenerativas como la ELA. Además, los ingenieros ya trabajan en modelos inalámbricos y de uso prolongado que recojan aún más datos, con la esperanza de perfeccionar este traductor cerebral de alta tecnología.
_______________
Referencia
Real-time decoding of full-spectrum Chinese using brain-computer interface. Youkun Qian et al. Science Advances, 5 Nov 2025, Vol 11, Issue 45. DOI: 10.1126/sciadv.adz9968
___________
Fuente:
