Sponsor

Recent

LÍMITES Y PARADOJAS DE LOS MODELOS DE IA QUE PROMETEN RAZONAR

Tecnología y sociedad
La ilusión del razonamiento: 
cuando la inteligencia artificial parece pensar, pero no lo hace
Un estudio descubre los límites y paradojas de los modelos de IA que prometen razonar como humanos

La IA dice que piensa, pero en realidad no llega: colapsa cuando el razonamiento es complejo. / ChatGPT/T21

EDUARDO MARTÍNEZ DE LA FE/
T21 Madrid 10 JUN 2025

Aunque los nuevos modelos de lenguaje presumen de cadenas de razonamiento y soluciones detalladas, un estudio revela que su aparente pensamiento es, en muchos casos, una sofisticada ilusión: estos sistemas colapsan ante la complejidad, evidenciando que estamos confundiendo el reconocimiento de patrones con el auténtico razonamiento.

En los últimos años, la inteligencia artificial ha dado pasos de gigante gracias a los llamados “modelos de lenguaje de gran tamaño” (LLMs), capaces de generar textos, resolver problemas y, en apariencia, razonar. Pero ¿hasta qué punto estos sistemas piensan de verdad? Un grupo de investigadores se propuso responder a esta pregunta analizando los llamados Large Reasoning Models (LRMs), una nueva generación de modelos diseñados específicamente para tareas de razonamiento, como Claude 3.7 Sonnet Thinking o DeepSeek-R11.

La principal diferencia de estos modelos respecto a los LLMs tradicionales es que los LRMs son capaces de desplegar cadenas de pensamiento: antes de dar una respuesta, generan una secuencia de pasos intermedios, como si “pensaran en voz alta”. Esto ha llevado a muchos a pensar que la IA está cada vez más cerca de razonar como un humano.

Sin embargo, un nuevo estudio desmonta parte de este mito. Los investigadores diseñaron una serie de experimentos con puzzles y juegos de lógica —como la Torre de Hanoi, el River Crossing o el Blocks World— para analizar cómo enfrentan los modelos problemas de complejidad creciente.

Tres fases ante la dificultad

El análisis reveló que, a medida que la dificultad de los problemas aumenta, los modelos atraviesan tres fases muy claras: en problemas sencillos, los modelos tradicionales (sin cadenas de pensamiento) son más rápidos y precisos que los LRMs, que tienden a “sobrepensar”, explorando alternativas innecesarias.

Cuando la dificultad es media, los LRMs muestran su ventaja: sus cadenas de razonamiento les permiten resolver problemas que los modelos simples ya no pueden abordar. Sin embargo, cuando la complejidad es alta, ambos tipos de modelos colapsan: dejan de encontrar soluciones correctas y, paradójicamente, los LRMs empiezan a reducir su esfuerzo de razonamiento, aunque podrían seguir “pensando” más tiempo.

Este fenómeno sugiere que, lejos de escalar su capacidad de razonamiento con la dificultad, los modelos actuales se rinden antes de agotar sus recursos computacionales.

¿Por qué ocurre este colapso?

El estudio fue más allá y analizó los “rastros de pensamiento” generados por los LRMs. En problemas fáciles, suelen encontrar la solución correcta al principio, pero luego continúan explorando caminos erróneos, malgastando recursos. En los de dificultad media, la respuesta correcta aparece tras muchos intentos fallidos. Y en los más difíciles, no logran encontrar ninguna solución válida. Esto muestra que, aunque los modelos han aprendido a auto-verificarse y a corregirse, su capacidad de autocorrección es limitada y no mejora con la dificultad.

Además, los investigadores comprobaron que, incluso si se les proporciona el algoritmo exacto para resolver un puzzle (por ejemplo, la receta paso a paso para la Torre de Hanoi), los modelos siguen fallando en los mismos puntos que cuando tienen que descubrir la solución por sí mismos. Esto indica que su principal limitación no es tanto descubrir la estrategia, sino ejecutar correctamente una secuencia lógica de pasos.

¿Simulan el pensamiento o solo reconocen patrones?

Estos resultados se suman a otros estudios que advierten sobre la tendencia de la IA a apoyarse en patrones superficiales en vez de una comprensión profunda. Cuando se enfrenta a problemas nuevos o con variaciones, el rendimiento de la IA cae en picado, lo que sugiere que su razonamiento es mucho menos flexible y adaptable que el humano. En palabras de los propios autores, los LRMs no desarrollan capacidades generalizables de resolución de problemas: su “pensar” es, en gran medida, una ilusión convincente, pero no una muestra de comprensión real.

Estos hallazgos son una llamada de atención para quienes ven en la IA una sustituta del razonamiento humano. Si bien los LRMs representan un avance en tareas de dificultad media, siguen enfrentando barreras fundamentales ante problemas complejos. La investigación apunta a la necesidad de repensar cómo evaluamos y desarrollamos estos modelos, buscando no solo precisión en la respuesta final, sino también robustez y comprensión genuina de los procesos de razonamiento.

En resumen, aunque la IA puede simular el pensamiento, aún está lejos de replicar la flexibilidad, profundidad y creatividad del razonamiento humano, según este documentado estudio. La ilusión del pensamiento sigue siendo, por ahora, eso: una ilusión.

____________
Referencia



____________
Fuente:

Entradas que pueden interesarte

Sin comentarios

LO MÁS VISTO

EL ATENTADO CONTRA MIGUEL URIBE: ¿QUIÉN BUSCA ENTURBIAR EL ESCENARIO POLÍTICO COLOMBIANO?

¿Por qué el atentado se dio justo ahora, horas después de un resonante triunfo judicial por parte del oficialismo? El intento de asesinato de un candidato presidencial conservador se da un momento particularmente álgido de la coyuntura política colombiana
 10 de agosto de 2023, Bogotá, Colombia: El senador colombiano Miguel Uribe Turbay (L) y el ex presidente Álvaro Uribe Vélez (R) participan durante un evento en el que se anuncian los candidatos al consejo del Partido Político Centro Democrático de Bogotá. Sebastian Barros / Zuma Press / ContactoPhoto Diana Carolina Alfonso y Lautaro Rivara Diario Red 8/06/25 | En horas de la tarde del sábado un sicario abrió fuego contra  Miguel Uribe Turbay , que recibió en el acto varios impactos de bala y se desplomó inconsciente.  Uribe Turbay es senador, miembro del partido del ex presidente Álvaro Uribe Vélez  y uno de los tantos pre-candidatos del espectro derechista (al menos son cinco los postulados por  Centro Democrático...

EMANCIPACIÓN N° 993

LEER REVISTA DIRECTAMENTE DESCARGAR REVISTA N° 993 Y COMPARTIR: VISITE BIBLIOTECA EMANCIPACIÓN LEER Y COPIAR EN LÍNEA DIRECTAMENTE: https://bibliotecaemancipacion.blogspot.com/ DESCARGUE 25 LIBROS EN PDF CON CADA ENTREGA HACIENDO CLIC EN CADA TÍTULO ANTES QUE PIERDA EL ENLACE: NO OLVIDE DESCOMPRIMIR LOS ARCHIVOS LIBROS  13926  A  13950 13926 Caminar. Thoreau, Henry David. Emancipación. Junio 14 de 2025 13927 No Despertéis A Los Muertos. Tieck, Johann Ludwig. Emancipación. Junio 14 de 2025 13928 Chertapkanof Y Tredopuskin. Turgueniev, Iván. Emancipación. Junio 14 de 2025 13929 Historia Del Inválido. Twain, Mark. Emancipación. Junio 14 de 2025 13930 Viaje Por Tres Mundos. Abramov, Alexander Y Serguei. Emancipación. Junio 14 de 2025 13931 Aline Y Valcour O La Novela Filosófica. De Sade D. A. F. , Marqués. Emancipación. Junio 14 de 2025 13932 Edipo. Seneca, Lucio Anneo. Emancipación. Junio 14 de 2025 13933 Fourier. Ponce, Aníbal. Emancipación. Junio 14 de 2025 13934 D...

LOS SONIDOS NATURALES SINCRONIZAN EL CEREBRO MEJOR QUE LA ESTIMULACIÓN ELÉCTRICA

Un estudio alemán descubre cómo sincronizamos nuestros pensamientos Un estudio de Max Planck demuestra que los sonidos naturales sincronizan el cerebro mejor que la estimulación eléctrica. Gianluca Riccio es.futuroprossimo.it 11 Junio 2025 ¿Pensabas que para controlar el cerebro se necesitaban electrodos y corrientes eléctricas? Mal. Un equipo de investigadores alemanes acaba de demostrar que los sonidos adecuados son suficientes para sincronizar la actividad neuronal mejor que cualquier estimulación artificial. ¿El secreto? Cada cerebro tiene su propia frecuencia favorita, como una emisora ​​de radio personal que debe sintonizarse con precisión. El descubrimiento abre nuevos horizontes para la neurociencia y podría dejar obsoletos muchos enfoques invasivos. La sincronización natural vence a la artificial Yuranny Cabral-Calderín y su equipo de Instituto Max Planck de Estética Empírica En Frankfurt, se realizaron tres rigurosos experimentos para responder a una pregunta fundamental: ¿qu...

ENTRADA DESTACADA

EL IMPERIO DE LOS IDIOTAS

EL IMPERIO DE LOS IDIOTAS

Los atributos que sostienen una sociedad abierta --la preocupación por el bien común, la honestidad…

Biblioteca Emancipación