La IA que habla consigo misma aprende más rápido y de forma más inteligente
Enseñar a la IA a hablar consigo misma podría ser la clave para crear máquinas más inteligentes y adaptables.
sciencedaily.com
Universidad de Posgrado del Instituto de Ciencia y Tecnología de Okinawa (OIST)28 de enero de 2026
Resumen: La IA puede aprender mejor cuando se le permite hablar consigo misma. Investigadores demostraron que el "murmullo" interno, combinado con la memoria a corto plazo, ayuda a la IA a adaptarse a nuevas tareas, cambiar de objetivo y afrontar desafíos complejos con mayor facilidad. Este enfoque aumenta la eficiencia del aprendizaje utilizando muchos menos datos de entrenamiento. Podría allanar el camino para sistemas de IA más flexibles y similares a los humanos.
HISTORIA COMPLETA
Dotar a la IA de una voz interior le permite pensar con mayor flexibilidad y aprender nuevas tareas con mayor rapidez. Este diálogo interno, junto con la memoria de trabajo, permite a las máquinas generalizar mejor con menos datos. Crédito: Shutterstock
Hablar consigo mismo puede parecer algo exclusivamente humano, pero resulta que este hábito también puede ayudar a las máquinas a aprender. El diálogo interno ayuda a las personas a organizar ideas, sopesar opciones y comprender las emociones. Una nueva investigación demuestra que un proceso similar puede mejorar la forma en que la inteligencia artificial aprende y se adapta. En un estudio publicado en Neural Computation , investigadores del Instituto de Ciencia y Tecnología de Okinawa (OIST) descubrieron que los sistemas de IA funcionan mejor en muchas tareas cuando se les entrena para usar el habla interna junto con la memoria a corto plazo.
Los hallazgos sugieren que el aprendizaje se define no solo por la estructura de un sistema de IA, sino también por cómo interactúa consigo mismo durante el entrenamiento. Como explica el Dr. Jeffrey Queißer, primer autor y científico de la Unidad de Investigación en Neurorobótica Cognitiva del OIST: «Este estudio destaca la importancia de las autointeracciones en nuestro aprendizaje. Al estructurar los datos de entrenamiento de forma que enseñen a nuestro sistema a comunicarse consigo mismo, demostramos que el aprendizaje se define no solo por la arquitectura de nuestros sistemas de IA, sino también por la dinámica de interacción inherente a nuestros procedimientos de entrenamiento».
Cómo el diálogo interno mejora el rendimiento de la IA
Para probar esta idea, los investigadores combinaron el habla interna autodirigida, descrita como un "murmullo" silencioso, con un sistema especializado de memoria de trabajo. Este enfoque permitió a sus modelos de IA aprender con mayor eficiencia, adaptarse a situaciones desconocidas y gestionar múltiples tareas a la vez. Los resultados mostraron claras mejoras en flexibilidad y rendimiento general en comparación con los sistemas que dependían únicamente de la memoria.
Construyendo una IA que pueda generalizar
Un objetivo central del trabajo del equipo es el procesamiento de la información independiente del contenido. Esto se refiere a la capacidad de aplicar las habilidades aprendidas más allá de las situaciones concretas encontradas durante el entrenamiento, utilizando reglas generales en lugar de ejemplos memorizados.
"Cambiar rápidamente de tarea y resolver problemas desconocidos es algo que los humanos hacemos con facilidad a diario. Pero para la IA, es mucho más desafiante", afirma el Dr. Queißer. "Por eso adoptamos un enfoque interdisciplinario, combinando la neurociencia del desarrollo y la psicología con el aprendizaje automático y la robótica, entre otros campos, para encontrar nuevas maneras de pensar el aprendizaje e informar sobre el futuro de la IA".
Por qué es importante la memoria de trabajo
Los investigadores comenzaron examinando el diseño de la memoria en modelos de IA, centrándose en la memoria de trabajo y su papel en la generalización. La memoria de trabajo es la capacidad a corto plazo de retener y utilizar información, ya sea seguir instrucciones o realizar cálculos mentales rápidos. Al probar tareas con diferentes niveles de dificultad, el equipo comparó diversas estructuras de memoria.
Descubrieron que los modelos con múltiples ranuras de memoria de trabajo (contenedores temporales de información) rindieron mejor en problemas complejos, como invertir secuencias o recrear patrones. Estas tareas requieren almacenar varios datos a la vez y manipularlos en el orden correcto.
Cuando el equipo añadió objetivos que animaban al sistema a hablar consigo mismo un número específico de veces, el rendimiento mejoró aún más. Las mayores mejoras se observaron durante la multitarea y en tareas que requerían muchos pasos.
"Nuestro sistema combinado es particularmente interesante porque puede trabajar con datos escasos en lugar de los extensos conjuntos de datos que suelen requerirse para entrenar dichos modelos para la generalización. Ofrece una alternativa complementaria y ligera", afirma el Dr. Queißer.
Aprender a aprender en el mundo real
Los investigadores ahora planean ir más allá de las pruebas limpias y controladas y explorar condiciones más realistas. «En el mundo real, tomamos decisiones y resolvemos problemas en entornos complejos, ruidosos y dinámicos. Para reflejar mejor el aprendizaje evolutivo humano, necesitamos tener en cuenta estos factores externos», afirma el Dr. Queißer.
Esta dirección apoya el objetivo más amplio del equipo de comprender cómo funciona el aprendizaje humano a nivel neuronal. «Al explorar fenómenos como el habla interna y comprender los mecanismos de dichos procesos, obtenemos nuevos conocimientos fundamentales sobre la biología y el comportamiento humanos», concluye el Dr. Queißer. «También podemos aplicar este conocimiento, por ejemplo, al desarrollo de robots domésticos o agrícolas que puedan funcionar en nuestros complejos y dinámicos mundos».
____________
Fuente de la historia:
Materiales proporcionados por la Universidad de Posgrado del Instituto de Ciencia y Tecnología de Okinawa (OIST) . Nota: El contenido puede ser editado por motivos de estilo y extensión.
_______________
Referencia de la revista:
Jeffrey Frederic Queißer, Jun Tani. La memoria de trabajo y el habla interna autodirigida mejoran la generalización multitarea en la inferencia activa . Neural Computation , 2026; 38 (1): 28 DOI: 10.1162/NECO.a.36
__________
Instituto de Ciencia y Tecnología de Okinawa (OIST) , Universidad de Posgrado. «La IA que se comunica consigo misma aprende más rápido y de forma más inteligente». ScienceDaily. ScienceDaily, 28 de enero de 2026. < www.sciencedaily.com/releases/2026/01/260127112130.htm > .
