Sponsor

Recent

LA INTELIGENCIA ARTIFICIAL TAMBIÉN VE EL MUNDO, PERO NO LO ENTIENDE COMO NOSOTROS

No llega al nivel semántico, sino que se queda en una percepción visual que explica sus limitaciones

La IA y nosotros vemos el mismo mundo, pero no de la misma forma. / ChatGPT/T21

EDUARDO MARTÍNEZ DE LA FE/T21
Madrid 26 JUN 2025 

Aunque la IA puede imitar el rendimiento humano en tareas complejas, su "visión del mundo" es intrínsecamente diferente: la nuestra es semántica y la suya es visual. Un sesgo que explica por qué los modelos inteligentes a veces cometen errores ilógicos, o son vulnerables a manipulaciones sutiles.

Un estudio publicado en la revista Nature Machine Intelligence ha desarrollado un innovador marco para comparar cómo los humanos y la inteligencia artificial (IA) interpretan el mundo, revelando diferencias fundamentales en sus estrategias de representación a pesar de las similitudes superficiales en su comportamiento. Esta investigación no solo profundiza en nuestra comprensión de la cognición humana, sino que también ofrece claves para desarrollar sistemas de IA más seguros y fiables.

Históricamente, la comparación entre la inteligencia humana y la artificial se ha basado en medidas globales que cuantifican el grado de similitud entre ambas, pero sin explicar las causas de sus diferencias. La irrupción de la IA generativa ha intensificado el debate sobre su uso y regulación en todos los ámbitos, desde la ciencia hasta la vida cotidiana. Con herramientas de IA cada vez más presentes, resulta crucial entender no solo qué hacen, sino cómo "piensan".

Para abordar este desafío, los investigadores diseñaron un experimento basado en una tarea cognitiva simple llamada "el elemento discordante" (odd-one-out). En esta prueba, se presentan tres imágenes y el participante —ya sea un humano o una IA— debe seleccionar la que menos se parece a las otras dos. Este método permite inferir los criterios de similitud que cada sistema utiliza para organizar la información del mundo.

Los científicos aplicaron esta tarea tanto a un extenso conjunto de datos de juicios humanos como a una red neuronal profunda (DNN) del tipo VGG-16, un modelo comúnmente utilizado en el campo de la neurociencia computacional por su buena correspondencia con el comportamiento humano y la actividad neuronal.

El hallazgo clave: sesgo visual frente a sesgo semántico

Al analizar los resultados, el estudio extrajo las "dimensiones representacionales" latentes, es decir, las propiedades fundamentales (como el color, la forma o la función) que tanto humanos como la IA utilizan para categorizar las imágenes.

Los resultados revelaron una divergencia estratégica fundamental: la representación humana está dominada por un sesgo semántico. Es decir, las personas tendemos a agrupar los objetos basándonos en su significado, función o categoría conceptual (por ejemplo, "es comida", "es un animal", "es tecnología"). Sin embargo, la representación de la IA muestra un claro sesgo visual. La red neuronal agrupa las imágenes principalmente por sus atributos perceptivos, como la textura, la forma o el color (por ejemplo, "es redondo", "es metálico", "tiene una textura fibrosa").

Aunque la IA identificó dimensiones que parecían semánticas, como "relacionado con la comida", una comparación directa con las dimensiones humanas expuso que estas eran solo aproximaciones. Por ejemplo, en una dimensión relacionada con los "animales", los humanos agrupaban coherentemente a los animales. En cambio, la IA, aunque también identificaba a los animales, incluía en la misma categoría objetos no animales que compartían características visuales, como jaulas o texturas naturales. Esta diferencia demuestra que, aunque el comportamiento final pueda parecer similar, el "razonamiento" subyacente es distinto.

¿Son coherentes las representaciones de la IA?

Para verificar si las dimensiones de la IA eran internamente coherentes, los investigadores utilizaron técnicas de interpretabilidad avanzadas. Mediante métodos como Grad-CAM, lograron visualizar qué regiones de una imagen eran más importantes para activar una dimensión específica (por ejemplo, los trastes de una guitarra para la dimensión "fibrosa"). Además, utilizando modelos generativos (StyleGAN-XL), consiguieron crear imágenes nuevas que maximizaban la activación de una dimensión concreta, generando con éxito imágenes que se alineaban con las etiquetas asignadas por los humanos, como "metálico y oxidado".

Estos experimentos demostraron que las representaciones de la IA son coherentes dentro de su propia lógica visual, pero también que esta lógica es fundamentalmente diferente de la base semántica que rige la percepción humana.

Implicaciones para el futuro de la IA

Las conclusiones de este estudio tienen profundas implicaciones en un momento en que la sociedad debate cómo integrar y regular la inteligencia artificial, señalan los autores del artículo.

El "sesgo visual" puede explicar por qué los modelos de IA a veces cometen errores que a los humanos nos parecen ilógicos, o son vulnerables a manipulaciones sutiles. Comprender este sesgo es el primer paso para corregirlo y crear sistemas más alineados con la intuición humana y así conseguir una IA más robusta y segura.

Por otro lado, al actuar como un espejo, la IA y sus diferencias nos permiten entender mejor las características únicas de la cognición humana, como nuestro profundo anclaje en el significado. Estos modelos nos ayudan a entender mejor la mente humana.

Por último, en un mundo donde la industria domina el desarrollo de modelos de IA cada vez más potentes, en el que la comunidad científica establece normas estrictas sobre su uso, entender cómo "piensan" estos sistemas es esencial. El llamado "dilema de control" advierte que los efectos de una tecnología no son evidentes hasta que su control se vuelve costoso y difícil. Estudios como este ofrecen una mirada "bajo el capó" que resulta indispensable para guiar el desarrollo tecnológico de manera responsable y mitigar riesgos antes de que se generalicen. Ofrece un contexto para la regulación y la ética de la IA.

Esta investigación concluye que superar la mera similitud entre la percepción humana y de la IA es el mayor desafío de esta tecnología para lograr una verdadera alineación en la representación del mundo.

________
Referencia

Dimensions underlying the representational alignment of deep neural networks with humans. Florian P. Mahner et al. Nature Machine Intelligence, volume 7, pages848–859 (2025)

__________
Fuente:

Entradas que pueden interesarte

EMANCIPACIÓN DE YOUTUBE, OTRA MANERA DE VER LA ACTUALIDAD

ENTRADA DESTACADA

HONDURASGATE: CÓMO Y POR QUÉ ISRAEL BUSCA INTERVENIR EN LAS ELECCIONES DE COLOMBIA

HONDURASGATE: CÓMO Y POR QUÉ ISRAEL BUSCA INTERVENIR EN LAS ELECCIONES DE COLOMBIA

El eje anglosionista ha intervenido con suma violencia en las elecciones para impedir la llegada de…

LO MÁS VISTO

¿QUÉ ESTÁ EN JUEGO EN LA GUERRA CONTRA IRÁN?

Luego del fracaso de la guerra arancelaria y económica, Estados Unidos apuesta por intervenciones militares directas en las potencias petroleras Imagen E.O con Nano Banana 2 Martín Martinelli jacobinlat.com/03/04/2026 La guerra de Estados Unidos e Israel contra Irán entrelaza numerosos elementos geopolíticos clave, que van desde la apuesta inmediata para controlar vías estratégicas de circulación comercial hasta el inicio de una reorganización regional a gran escala. Las escaladas bélicas en años recientes y, particularmente, las planteadas desde 2022 en Ucrania-Rusia, Palestina (y la región circundante. incluyendo a Israel, Líbano, Yemen, Iraq e incluso Afganistán y Pakistán), Venezuela e Irán, además de los países sancionados unilateralmente, conforman distintas batallas que están relacionadas. Ese uso de la fuerza busca impedir el declive hegemónico estadounidense y occidental en el mundo, que se siente desafiado por la irrupción de China, Rusia y sus alianzas. En esta transición he...

UN "CÓDIGO" DE 5 AMINOÁCIDOS

El hito del CSIC para que los cultivos resistan la sequía sin perder productividad Investigadores del CSIC identifican un código de cinco aminoácidos que habilita la reprogramación del estrés hídrico en cultivos estratégicos. Recreación artística del sistema de respuesta a la sequía, relacionado con los receptores de ABA (en detalle). Fuente: ChatGPT / Scruzcampillo. Santiago Campillo Brocal, Biólogo. Máster en Biología Molecular y Biotecnología  Director de Muy Interesante Digital/17.04.2026 La supervivencia de una planta en un entorno árido depende de una decisión bioquímica constante: cuándo cerrar sus poros para conservar agua y en qué momento abrirlos para mantener el crecimiento. Este equilibrio responde al ácido abscísico, una hormona que señaliza el estrés hídrico y activa las defensas vegetales. Un estudio liderado por el Instituto de Química Física Blas Cabrera y el IBMCP, publicado en la revista PNAS , describe el mecanismo estructural mínimo que regula esta respuesta. U...

CÓMO EL EJÉRCITO DE LA DERECHA RELIGIOSA DE TRUMP SE ESTÁ PREPARANDO PARA EL APOCALIPSIS (Y UNA DEVASTADORA GUERRA CIVIL)

Esperando el Apocalipsis Imagen ilustrativa E.O con nano banana 2 de google.com Alex Hannaford elviejotopo.com/17 abril, 2026  Donald Trump publicó una imagen generada por IA en la plataforma Truth Social, donde se le ve vistiendo una túnica roja y blanca, colocando su mano sobre la frente de una persona enferma en una cama de hospital. La imagen, rodeada de personas rezando o esperando algo, muestra la bandera estadounidense, la Estatua de la Libertad, aviones de combate, águilas y otras figuras al fondo. Cabe señalar que, poco después de la publicación anterior, Donald Trump publicó un extenso artículo contra el Papa León XIII, acusándolo de apoyar el programa de armas nucleares de Irán, oponerse a la operación militar estadounidense en Venezuela en enero y reunirse con simpatizantes del expresidente Barack Obama. «No quiero un papa que critique al presidente de los Estados Unidos, porque estoy haciendo exactamente lo que me eligieron para hacer, por una abrumadora mayoría: reduc...