Un estudio revela que los algoritmos de personalización crean una ilusión de competencia
Eric W. Dolan
psypost.org/ 2 de diciembre de 2025
Un nuevo estudio publicado en la Revista de Psicología Experimental: General sugiere que los algoritmos de personalización utilizados por las plataformas de contenido en línea pueden obstaculizar activamente el proceso de aprendizaje. Los hallazgos evidencian que, cuando los algoritmos adaptan la información al comportamiento del usuario, este puede desarrollar una comprensión sesgada del tema y, al mismo tiempo, sentirse demasiado confiado en su conocimiento impreciso.
El estudio fue realizado por Giwon Bahg, del Departamento de Psicología de la Universidad de Vanderbilt, junto con Vladimir M. Sloutsky y Brandon M. Turner, del Departamento de Psicología de la Universidad Estatal de Ohio. Las investigaciones científicas previas sobre la personalización se han centrado a menudo en cómo estos sistemas refuerzan creencias existentes, como ideologías políticas o actitudes sociales. Este fenómeno se conoce a menudo como «burbuja de filtro».
El equipo de investigación buscó determinar si estos algoritmos afectan los procesos cognitivos básicos cuando una persona intenta aprender sobre un tema completamente nuevo sobre el que no tiene opiniones previas. Investigaron si el mecanismo de adaptar el contenido para aumentar el consumo podría limitar inadvertidamente la exposición al entorno más amplio.
Esta restricción podría impedir que los usuarios formen un mapa mental preciso de la realidad. Los investigadores pretendían simular cómo una persona podría intentar aprender sobre un nuevo ámbito, como el cine extranjero o un concepto científico, a través de un feed seleccionado.
Para probar su hipótesis, los investigadores reclutaron a 343 participantes a través de una plataforma en línea. Tras excluir los datos de las sesiones incompletas o que no cumplían con los estándares de calidad específicos, el análisis final incluyó a 200 participantes.
Los investigadores diseñaron una tarea con categorías completamente ficticias para garantizar que el conocimiento previo no influyera en los resultados. Se pidió a los participantes que aprendieran a categorizar extraños "alienígenas" con forma de cristal.
Estas criaturas digitales poseían seis características visuales distintivas que definían su categoría. Estas características incluían la ubicación en una línea, el radio de un círculo, el brillo, la orientación, la curvatura y la frecuencia espacial. El objetivo de los participantes era aprender la estructura de estas categorías alienígenas mediante la observación de diversos ejemplos.
El experimento consistió en una fase de aprendizaje seguida de una fase de prueba. Durante la fase de aprendizaje, las características específicas de los extraterrestres se ocultaron inicialmente tras recuadros grises. Los participantes debían hacer clic en los recuadros para revelar características específicas, un proceso que los investigadores denominaron muestreo de información. Esta configuración permitió al equipo rastrear con precisión qué información eligieron consultar los participantes y qué ignoraron.
Los investigadores dividieron a los participantes en diferentes grupos para evaluar los efectos específicos de la personalización algorítmica. Un grupo sirvió como grupo de control y observó una selección aleatoria de elementos con todas las características disponibles para su inspección. Otro grupo realizó un aprendizaje activo, donde eligieron libremente las categorías que estudiarían sin interferencia algorítmica.
Los grupos experimentales interactuaron con un algoritmo de personalización basado en los sistemas de filtrado colaborativo de plataformas para compartir vídeos como YouTube. Este algoritmo rastreó las funciones en las que los participantes tendían a hacer clic durante las pruebas.
Luego, recomendó elementos posteriores que facilitaron la continuidad de ese patrón específico de clics. En consecuencia, el sistema creó un bucle de retroalimentación que presentaba elementos similares a los que el usuario ya había utilizado.
Esta configuración imitó cómo las plataformas en línea priorizan la interacción con el contenido sobre la diversidad de información para maximizar los ingresos. El algoritmo se entrenó para predecir qué elementos generarían más clics por parte del usuario. Posteriormente, llenó el feed del usuario con los elementos de alta interacción.
El análisis de datos reveló diferencias significativas en la forma en que los distintos grupos recopilaron información. Los participantes en las condiciones personalizadas analizaron considerablemente menos características que los de los grupos de control o de aprendizaje activo.
A medida que avanzaba la fase de aprendizaje, estos participantes redujeron aún más su enfoque. Los datos sugieren que tendían a ignorar las dimensiones de los extraterrestres que el algoritmo no priorizaba.
El análisis de la diversidad del muestreo utilizó una medida llamada entropía de Shannon. Esta métrica demostró que el entorno personalizado entrenó eficazmente a los usuarios para prestar atención a una porción limitada de la información disponible. El algoritmo limitó con éxito la diversidad de las categorías presentadas a los usuarios.
Tras la fase de aprendizaje, los investigadores realizaron una tarea de categorización para medir el aprendizaje de los participantes. Les mostraron nuevos ejemplos de extraterrestres y les pidieron que los clasificaran en los grupos correctos.
Los investigadores descubrieron que los individuos que aprendieron mediante el algoritmo personalizado cometieron más errores que los del grupo de control. Su representación interna de las categorías alienígenas estaba distorsionada.
El algoritmo les había impedido ver la variedad completa de la población alienígena. Esto condujo a generalizaciones inexactas sobre la relación entre las diferentes características. Los participantes, en efecto, aprendieron una versión distorsionada de la realidad presentada en el experimento.
Además de la precisión, el estudio midió la confianza de los participantes en sus decisiones mediante una escala de calificación de cero a diez. El análisis mostró que los participantes de los grupos personalizados frecuentemente reportaron altos niveles de confianza, incluso cuando sus respuestas eran incorrectas. Este efecto fue particularmente evidente cuando se encontraron con elementos de categorías que rara vez o nunca habían visto durante la fase de aprendizaje.
En lugar de reconocer su desconocimiento de estos elementos desconocidos, los participantes aplicaron incorrectamente su limitada experiencia. Los resultados muestran que, cuando un elemento de prueba provenía de una categoría no observada, los participantes no reportaron baja confianza. Estaban seguros de que su conocimiento sesgado se aplicaba a estas situaciones novedosas.
Esto indica una desconexión entre la competencia real y la competencia percibida, causada por el entorno de aprendizaje filtrado. Los participantes desconocían que el algoritmo les había ocultado partes significativas del panorama informativo. Asumieron que la muestra limitada que revisaron era representativa del conjunto.
Los autores señalan que el estudio utilizó una tarea artificial altamente controlada para aislar los efectos cognitivos de los algoritmos. Las interacciones reales con la personalización suelen implicar contenido semántico complejo y preferencias emocionales, que no se presentaron en este experimento. La naturaleza sintética de los estímulos fue una decisión de diseño necesaria para descartar la influencia de creencias preexistentes.
Investigaciones futuras podrían investigar cómo estos hallazgos se traducen a entornos más naturalistas, como el consumo de noticias o las herramientas educativas. Los investigadores también sugieren explorar cómo los diferentes tipos de objetivos del usuario podrían mitigar los efectos negativos de la personalización. Por ejemplo, un algoritmo diseñado para maximizar la diversidad en lugar de la interacción podría generar diferentes resultados cognitivos.
Los hallazgos evidencian que la estructura de los sistemas de distribución de información desempeña un papel fundamental en la formación de la cognición humana. Al optimizar la interacción, los algoritmos actuales pueden sacrificar inadvertidamente la precisión del conocimiento del usuario. Esta contrapartida sugiere que las plataformas en línea pueden influir no solo en lo que las personas ven, sino también en su forma de razonar sobre el mundo.
El estudio, “ La personalización algorítmica de la información puede provocar generalizaciones inexactas y exceso de confianza ”, fue escrito por Giwon Bahg, Vladimir M. Sloutsky y Brandon M. Turner.
________
Fuente:
