Confiamos menos en ella que nunca, pero la usamos para decidir sobre nuestra salud
¿Es posible que estemos entregando las llaves de nuestro bienestar a una entidad en la que, paradójicamente, cada vez confiamos menos? La respuesta no se encuentra en la tecnología, sino en una extraña grieta de la psicología humana que está transformando las salas de espera en interfaces digitales
Representación artística de autodiagnóstico en smartphone. Foto: Nano Banana / Scruzcampillo.
Santiago Campillo Brocal, Biólogo. Máster en Biología Molecular y Biotecnología, Director de Muy Interesante Digital/ 7.04.2026
El panorama de la salud digital ha dado un vuelco inesperado en los últimos veinticuatro meses. Según un reciente informe del Centro Médico Wexner de la Universidad Estatal de Ohio (OSU), la aceptación general de la inteligencia artificial en medicina ha caído del 52% al 42% en términos de aprobación pública. Sin embargo, los datos de comportamiento cuentan una historia radicalmente distinta que desafía la lógica de la prudencia diagnóstica tradicional.
Estamos ante lo que los expertos denominan una "paradoja de la conveniencia", donde no es que hayamos decidido que los algoritmos son infalibles, sino que el 51% de los adultos ya utiliza la IA para diagnosticar dolencias o tomar decisiones de salud vitales antes incluso de consultar con un profesional. En un entorno saturado, la respuesta instantánea de un modelo de lenguaje se convierte en un refugio tentador frente a la demora de las citas presenciales.
Como explica el Dr. Ravi Tripathi, investigador del Centro Médico Wexner de la Universidad Estatal de Ohio (OSU), el problema no reside únicamente en la herramienta, sino en cómo el paciente interpreta su función. El riesgo surge cuando el usuario decide eliminar el filtro humano y delegar su autonomía en una arquitectura lógica que carece de contexto biográfico. La inteligencia artificial no ha sido diseñada para ser el capitán del barco médico, sino un copiloto de datos.
El fin del idilio: el ciclo de sobreexpectativa
Para entender por qué la confianza ha caído mientras el uso se dispara, debemos observar el fenómeno a través del prisma del ciclo de sobreexpectativa. Tras el brillo inicial de la novedad, la sociedad ha comenzado a percibir las costuras del sistema de forma pragmática. La aparición de alucinaciones algorítmicas, donde la IA genera datos falsos con seguridad gramatical, ha erosionado la autoridad percibida de estas herramientas en el ámbito clínico.
A pesar de esta lucidez, la integración de la IA en la vida cotidiana es tan profunda que su uso en salud se ha vuelto casi inercial. El estudio, basado en el SSRS Opinion Panel Omnibus, revela que la desconfianza no frena la acción del paciente, dado que los usuarios están intercambiando la precisión diagnóstica por la reducción de la incertidumbre inmediata en un cambio de paradigma que sitúa al algoritmo como el primer punto de contacto sanitario.
La barrera del 2%: el límite de la alucinación
El rigor técnico del informe de la OSU pone el foco en un dato crítico para la seguridad: el margen de error persistente que los modelos no logran erradicar. El equipo de la institución señala que la inteligencia artificial mantiene un índice de alucinación o error del 2% en tareas de diagnóstico complejo, una cifra que resulta inasumible en el ámbito de la salud pública si no existe una supervisión profesional estricta.
El riesgo de la generalización algorítmica
Este pequeño porcentaje representa la diferencia entre una recomendación acertada y un consejo que podría agravar una patología. La medicina es una ciencia de la individualidad y los modelos actuales presentan dificultades para integrar la invarianza de medición en grupos heterogéneos, lo que invalida muchos consejos generalistas. Un dato estadísticamente irrelevante para una máquina puede ser una sentencia crítica para un paciente específico.
Recreación artística que representa el concepto de "Inteligencia Aumentada", donde la capacidad de procesamiento de la máquina y la ética humana sostienen juntas la salud del paciente, demostrando que el objetivo científico no es el reemplazo del médico, sino una sinergia colaborativa. Foto: Nano Banana / Scruzcampillo.Hacia la inteligencia aumentada
El objetivo de instituciones como el Centro Médico Wexner de la Universidad Estatal de Ohio (OSU) no es desterrar la tecnología, sino reubicarla. El concepto que empieza a ganar tracción entre la comunidad científica es el de Inteligencia Aumentada, una simbiosis donde la IA actúa como sistema de apoyo a la decisión clínica para asistir al médico sin llegar a sustituirlo nunca en la fase final del tratamiento.
Para entender qué está ocurriendo en esta transición, debemos observar que la verdadera urgencia no es mejorar la velocidad de procesamiento, sino educar al paciente. Utilizar la IA como consulta inicial puede ser útil siempre que se mantenga la jerarquía de autoridad donde el algoritmo propone y el médico dispone. Mientras la tecnología pule sus errores, queda por ver si el próximo salto en el procesamiento de lenguaje natural logrará reducir ese 2% de alucinaciones que hoy separa al algoritmo del estetoscopio.
___________
Referencias
Public comfort with AI in health care falls, Ohio State survey finds. Ohio State University Wexner Medical Center, 2026.
________
Fuente:
