La frontera entre mente y lenguaje se desvanece
Una técnica de imagen no invasiva puede traducir escenas mentales en frases
cambio16.com
16/11/2025
Leer la mente de una persona a partir de un registro de su actividad cerebral suena inimaginable, e incluso disparatado. Pero un estudio científico acerca la posibilidad de comunicar pensamientos sin emitir palabras a través de un modelo de inteligencia artificial.
Este dispositivo ha sido diseñado por investigadores de la Universidad de California, Berkeley y de los Laboratorios NTT Communication Science en Japón. Utiliza resonancias magnéticas funcionales para generar frases que reflejan lo que una persona observa o imagina.
El método combina dos modelos de IA que colaboran para interpretar las señales neuronales. El primero analiza miles de subtítulos de vídeos, extrayendo su firma semántica o significado esencial. El segundo relaciona esas firmas con los patrones cerebrales registrados en los participantes, aprendiendo a vincular cada pensamiento o recuerdo con una estructura lingüística, señala el estudio en la revista Science Advances.
La exploración emplea una técnica llamada ‘descripción mental’ que genera frases descriptivas de lo que una persona ve o imagina en su mente a partir del registro de su actividad cerebral, con una precisión asombrosa. La técnica ofrece pistas sobre cómo el cerebro representa el mundo antes de que los pensamientos se expresen con palabras.
Además, podría ayudar a las personas con dificultades del lenguaje, como las causadas por accidentes cerebrovasculares, a comunicarse mejor.
Inteligencia artificial lee pensamientos
El modelo predice con gran detalle lo que una persona está mirando, afirma Alex Huth, neurocientífico computacional de la Universidad de California, Berkeley. “Esto es difícil de lograr. Es sorprendente el nivel de detalle que se puede alcanzar”, dice.
Una vez entrenado, el sistema de IA es capaz de leer nuevas señales del cerebro, pensamientos y reconstruir descripciones completas del contenido visual. Huth explica que el modelo puede “predecir con un alto nivel de detalle lo que una persona está viendo o recordando”. En uno de los ejemplos, el programa generó la frase “una persona salta sobre una cascada en una montaña” solo a partir de la actividad cerebral del sujeto.

Los investigadores han podido predecir con detalle lo que una persona ve u oye a través de su actividad cerebral. Sin embargo, descifrar la interpretación cerebral de contenido complejo, como vídeos cortos o formas abstractas, ha resultado ser más difícil.
Según Tomoyasu Horikawa, neurocientífico computacional de los Laboratorios de Ciencias de la Comunicación de NTT en Kanagawa, Japón, los intentos anteriores solo han identificado palabras clave que describen lo que una persona vio, en lugar del contexto completo. Y que podría incluir el sujeto del video y las acciones que ocurren en él.
Otros intentos han utilizado modelos de inteligencia artificial capaces de crear estructuras sintácticas por sí mismos. Lo que dificulta saber si la descripción o pensamientos se representaron realmente en el cerebro, cita el artículo.
Beneficios a personas con trastornos del lenguaje
El método de Horikawa utilizó inicialmente un modelo de IA de procesamiento profundo del lenguaje para analizar los subtítulos de más de 2000 vídeos. Convirtiendo cada uno en una ‘firma de significado’ numérica única. Posteriormente, se entrenó una herramienta de IA independiente con escáneres cerebrales de seis participantes, la cual aprendió a identificar los patrones de actividad cerebral que coincidían con cada firma de significado mientras los participantes veían los vídeos.
El investigador destaca que la precisión de esta tecnología demuestra que el cerebro utiliza representaciones mentales comunes tanto para la percepción como para la memoria. Este hallazgo sugiere nuevas vías para desarrollar interfaces cerebro-computadora que podrían beneficiar a personas con trastornos del lenguaje o lesiones neurológicas.

Una vez entrenado, este decodificador cerebral podría leer una nueva resonancia magnética cerebral de una persona que ve un vídeo y predecir el significado implícito. A continuación, otro generador de texto basado en IA buscaría la frase que más se aproxime al significado implícito decodificado del cerebro del individuo.
Según los expertos, este tipo de sistemas podría facilitar la comunicación en pacientes con afasia o parálisis, permitiéndoles expresar pensamientos mediante texto generado por su actividad cerebral. Asimismo, podría mejorar las herramientas que traducen señales neuronales en lenguaje, abriendo una nueva etapa para la neurotecnología.
El avance también plantea inquietudes sobre la privacidad mental. “Si conseguimos que estas máquinas interpreten representaciones no verbales, podríamos ayudar a quienes no pueden hablar. Pero también debemos proteger la intimidad de la mente humana”, comenta Huth.
Los investigadores insisten en que la técnica requiere consentimiento y que los modelos actuales no pueden leer pensamientos privados ni emociones personales.
_________
Fuente:
