Sponsor

Recent

LOGRAN CONVERTIR LA ACTIVIDAD CEREBRAL EN FRASES ESCRITAS USANDO SOLO SENSORES E IA

¿Es posible entablar una conversación fluida con una máquina utilizando únicamente la actividad de nuestras neuronas y sin necesidad de pasar por un quirófano? 
Los últimos avances en neurotecnología sugieren que la frontera entre el lenguaje interno y el texto digital es cada vez más delgada gracias a una combinación de imanes y algoritmos de inteligencia artificial

Recreación artística que muestra a una persona con un casco de sensores del que emerge una estela de código binario que se organiza en lenguaje, simbolizando la traducción de la actividad cerebral en información. Foto: ChatGPT / Scruzcampillo.

Santiago Campillo Brocal, Biólogo. Máster en Biología Molecular y Biotecnología
Director de Muy Interesante Digital/ 27.03.2026

La comunicación es la piedra angular de la experiencia humana, pero para miles de personas que sufren trastornos como la esclerosis lateral amiotrófica (ELA) o el síndrome de cautiverio, esta capacidad se ve drásticamente reducida. Hasta hace poco, la solución más eficaz para devolverles la voz pasaba por la implantación de chips intracraneales, una técnica invasiva que conlleva riesgos quirúrgicos y complicaciones a largo plazo. Sin embargo, una serie de investigaciones disruptivas lideradas por Meta AI y la Academia China de Ciencias, publicadas en revistas como The Innovation Informatics, marcan un avance significativo en la escalabilidad de interfaces no invasivas.

Al utilizar una técnica llamada Magnetoencefalografía (MEG) junto con modelos de lenguaje similares a los que alimentan a los chats inteligentes, los científicos han logrado lo que muchos denominan leer tus pensamientos, aunque técnicamente se trate de una decodificación de representaciones lingüísticas neuronales de alta precisión. Este avance permite reconstruir frases continuas a partir de la actividad cerebral sin tocar un solo nervio, lo que supone un paso fundamental para ayudar a reducir la necesidad de hacer cirugías invasivas en el futuro de la medicina rehabilitadora.

La tecnología detrás del "escuchado" mental

Para comprender cómo una máquina puede interpretar lo que ocurre dentro del cráneo sin cables, debemos observar la física que rige nuestras neuronas. Cada vez que pensamos en una palabra o escuchamos una frase, miles de neuronas se disparan al unísono, generando minúsculos campos magnéticos. La MEG es capaz de captar estas señales desde el exterior mediante sensores extremadamente sensibles. El problema histórico de esta técnica era el "ruido": la señal es tan débil y compleja que separar el mensaje del resto de la actividad cerebral era como intentar escuchar un susurro en medio de un estadio de fútbol.

Aquí es donde entra en juego la reconstrucción semántica del habla. En lugar de intentar identificar cada letra o sonido por separado, los nuevos modelos desarrollados por Meta AI utilizan una arquitectura de inteligencia artificial conocida como Transformer. Estos algoritmos han sido entrenados para entender el contexto y la probabilidad de las palabras. Al cruzar los patrones magnéticos del cerebro con un modelo de lenguaje, la IA no solo "oye" la señal, sino que "adivina" la frase más probable que el usuario está procesando. El sistema ya no se limita a decodificar palabras sueltas, sino que es capaz de reconstruir frases complejas con una coherencia asombrosa, eliminando la necesidad de electrodos físicos dentro del tejido cerebral.

La sorpresa del cerebro y el procesamiento del lenguaje

Uno de los puntos más rigurosos de la investigación realizada por la Academia China de Ciencias es la identificación de la jerarquía de las dinámicas neuronales. Los investigadores descubrieron que el cerebro no procesa el lenguaje de forma plana; existe una estructura clara que distingue entre la intención de comunicarse y el contenido específico del mensaje.

La ilustración detalla el proceso para traducir señales cerebrales (EEG, MEG y fMRI) en lenguaje escrito mediante modelos computacionales. El sistema aborda desafíos críticos como el ruido de la señal y las diferencias individuales, proyectando un futuro basado en la integración de grandes modelos de lenguaje (LLM) y una personalización avanzada para lograr una interacción cerebro-computadora más natural y escalable. Fuente: Liu C., Chen X., Du C., et al. (2026). Non-invasive brain-to-text decoding: Towards more natural brain-computer interaction. The Innovation Informatics

Mediante el uso de modelos avanzados como el BP-GPT, los científicos han podido guiar la decodificación utilizando información obtenida por resonancia magnética funcional (fMRI) para "enseñar" al sistema MEG dónde mirar. Esto ha permitido que la tecnología aprenda a separar el "ruido" de fondo de la verdadera señal lingüística. La observación significativa de estos estudios es que el sistema es capaz de decodificar tanto el habla escuchada como el habla imaginada, lo que significa que la IA puede traducir lo que una persona está intentando decir internamente incluso si no emite ningún sonido. Esta capacidad de diferenciar la intención del contenido es lo que permite que la precisión del texto resultante sea lo suficientemente alta como para ser útil en un entorno clínico real.

El cráneo ya no es un problema: sensores vs Neuralink

La gran ventaja de este enfoque frente a proyectos como Neuralink de Elon Musk es, precisamente, la ausencia de cirugía. Ayudar a reducir la necesidad de hacer cirugía invasiva no es solo una cuestión de comodidad; es una cuestión de seguridad y accesibilidad. Un dispositivo que se coloca como un casco es mucho más fácil de actualizar, reparar y distribuir que un implante que requiere perforar el hueso.

Sin embargo, debemos mantener una visión equilibrada y realista sobre el estado actual de la tecnología. Aunque ya podemos hablar de una decodificación de representaciones lingüísticas neuronales exitosa, todavía no estamos en el punto de una conversación en tiempo real a velocidad natural. El "ancho de banda" de la comunicación no invasiva es todavía inferior al del habla humana común.

Los modelos actuales pueden reconstruir el sentido general y la mayoría de las palabras de una frase, pero aún existen errores en la fluidez y en la captura de matices gramaticales muy finos. La identidad del hallazgo reside en que hemos construido el puente técnico para conectar el cerebro con el texto sin riesgos quirúrgicos, pero la velocidad de esa conexión todavía necesita refinarse para igualar la agilidad del lenguaje hablado.

Nuestros pensamiento, ¿seguirán siendo privados?

El hecho de que una IA pueda leer tus pensamientos, o, de forma más precisa, realizar una reconstrucción semántica del habla desde el exterior, abre un debate necesario sobre la privacidad mental. Si la tecnología permite decodificar lo que imaginamos sin nuestro consentimiento explícito, nos enfrentamos a desafíos éticos sin precedentes. No obstante, los investigadores subrayan que, por ahora, estos sistemas requieren una calibración intensa y la cooperación voluntaria del usuario; no es algo que se pueda hacer de forma "secreta" o a distancia.

La ciencia indica que el futuro de la comunicación para pacientes con discapacidades graves pasa por estos sensores portátiles. Estamos dejando atrás la era de los chips para entrar en la era de los sensores de alta fidelidad apoyados por la potencia del aprendizaje profundo. La capacidad de convertir la actividad cerebral en frases escritas mediante imanes y algoritmos es ya una realidad funcional, y su evolución promete devolver la autonomía a quienes la creían perdida para siempre.

Al final, este avance nos ofrece una visión de un futuro donde la tecnología no es algo que se inserta en nosotros, sino algo que nos envuelve y nos entiende. Reconocer que el cráneo ya no es una barrera infranqueable para la comunicación es el primer paso hacia una integración más humana de la inteligencia artificial, asegurando que el lenguaje, nuestra herramienta más poderosa, siga fluyendo incluso cuando el cuerpo no puede expresarlo.

_______________
Referencias

Liu C., Chen X., Du C., et al. (2026). Non-invasive brain-to-text decoding: Towards more natural brain-computer interaction. The Innovation Informatics. DOI: 10.59717/j.xinn-inform.2026.100021 -

_________
Fuente:

Entradas que pueden interesarte

EMANCIPACIÓN DE YOUTUBE, OTRA MANERA DE VER LA ACTUALIDAD

ENTRADA DESTACADA

EL DERECHO INTERNACIONAL ESTÁ DEL LADO DE IRÁN, ENTONCES, ¿POR QUÉ EL CONSEJO DE SEGURIDAD DE LA ONU CULPA A LA VÍCTIMA?

EL DERECHO INTERNACIONAL ESTÁ DEL LADO DE IRÁN, ENTONCES, ¿POR QUÉ EL CONSEJO DE SEGURIDAD DE LA ONU CULPA A LA VÍCTIMA?

A medida que se intensifican los ataques estadounidenses e israelíes, Teherán insiste en que libra …

LO MÁS VISTO

EMANCIPACIÓN N° 1030

LEER REVISTA N° 1030 Leer en Línea :  https://n9.cl/0xl96 *** DESCARGAR REVISTA :  https://n9.cl/80sz5 *** ÚNATE AL CANAL EMANCIPACIÓN: ¡LA VOZ DE LA VERDAD!: https://whatsapp.com/channel/0029VbC6QCiFsn0YY8YCUj0g *** VISITE BIBLIOTECA EMANCIPACIÓN LEER Y COPIAR EN LÍNEA DIRECTAMENTE: https://bibliotecaemancipacion.blogspot.com/ DESCARGUE 25 LIBROS EN PDF CON CADA ENTREGA HACIENDO CLIC EN CADA TÍTULO ANTES QUE PIERDA EL ENLACE NO OLVIDE DESCOMPRIMIR LOS ARCHIVOS 14851 La Gran Manzana. Zanoni, Leandro. Emancipación. Febrero 28 de 2026 14852 María Estuardo. Zweig, Stefan. Emancipación. Febrero 28 de 2026 14853 Los Incas. Espinoza, Waldemar. Emancipación. Febrero 28 de 2026 14854 Balleneros Y Corsarios. Mackay, Edgardo. Emancipación. Febrero 28 de 2026 14855 Vida De Leonardo. Vecce, Carlo. Emancipación. Febrero 28 de 2026 14856 Historia De La Física Del Universo. Battaner, Eduardo. Emancipación. Febrero 28 de 2026 14857 De Cuando Pablo Neruda Plagio A Miguel Ángel Macau. C...

SMARTWATCHES QUE ROMPEN BARRERAS

Smartwatches priorizan la inclusión e incorporan funciones que abordan capacidades reducidas visuales, auditivas, de movilidad y cognitivas Nelson Hernández cambio16.com/03/03/2026 Los relojes inteligentes ya no se limitan a medir pasos o pulsaciones para usuarios típicos, y esto representa un avance monumental en la tecnología wearable. En efecto, incorporan funciones inclusivas que abordan discapacidades visuales, auditivas, de movilidad y cognitivas, para beneficiar a más de 1.300 millones de personas con alguna limitación en el mundo, según la OMS. Por ejemplo, Huawei revoluciona el panorama con su Rolling Mode en modelos como el Watch GT 6 y GT Runner 2, adaptando métricas específicas a usuarios de sillas de ruedas. Esta innovación surge porque la tecnología tradicional ignoraba patrones no bípedos, y dejaba un «punto ciego» evidente en la salud digital. Además, cerca de 80 millones de personas usan sillas de ruedas en el mundo, mientras que en España suman 2,5 millones con movil...

PETRO Y LAS MEDIDAS DE EMERGENCIA ECONÓMICA Y ECOLÓGICA PARA ATENDER A LAS VICTIMAS

Presidente Petro aprueba decretos de Emergencia económica y ecológica para atender a las víctimas de la emergencia climática de Montería Horacio Duque Giraldo  prensabolivariana.org/27/02/2026 El colapso climático y las graves inundaciones ocurridas en febrero en el territorio del departamento de Cordoba y su capital Montería, por la creciente de los ríos Sinú, San Jorge y Canalete, han dejado más de 240 mil víctimas (más de 80 mil hogares) que perdieron sus viviendas, sus proyectos productivos y entorno ecológico (ciénagas, humedales y otros espejos hídricos). La situación social es dramática y las comunidades se están organizando con sus asociaciones y veedurías ciudadanas para demandar del Estado el reconocimiento de sus derechos como víctimas del cambio climático. De manera consecuente, el presidente Petro procedió con rapidez para abordar las demandas y urgencias de la población y ha decretado un Estado de excepción constitucional en el ámbito económico y ecológico que hoy se ...

Revista Pedagógica Nueva Escuela