La desinformación y el engaño nacen de cómo funciona la mente, pero eso no significa que la humanidad no pueda combatir tales azotes contemporáneos y esté condenada a caer en ellos
cambio16/
La biología revela la desinformación y el engaño como rasgo natural de los animales, pero son azotes de la humanidad. Sin embargo, la educación y el prebunking impulsan un cambio de conciencia colectivo con datos probados de eficacia
Un trabajo publicado en el Journal of the Royal Society Interface por investigadores de la Universidad de Cornell, en Estados Unidos, propone algo tan provocador como sólido: siempre que existan sistemas biológicos que intercambian información, existirán también errores, malentendidos y mensajes que alejan a los organismos de la realidad. No como excepción, sino como regla.
La desinformación surge en la naturaleza como mecanismo de supervivencia básica cotidiana de los animales. Organismos emiten señales falsas para cazar presas o evadir depredadores con astucia. Grupos responden en cadena rápida, y un error individual genera reacciones masivas en bandadas de aves enteras. También bacterias interfieren en señales químicas de rivales cercanos para dominar recursos vitales.
La comunicación biológica incluye ruido inherente por diseño evolutivo profundo. En la actualidad, el 62% del contenido en línea contiene falsedades, según informes globales detallados. La neurociencia, por su parte, identifica sesgos que aceleran decisiones humanas diarias complejas. Estos atajos evolutivos priorizan velocidad sobre precisión absoluta total. Por tanto, las personas aceptan datos que confirman creencias previas con facilidad notable.

En la naturaleza a algunos animales les resulta útil fingir que están muertos para engañar a depredadores, pero para la humanidad esta habilidad de manipular y desinformar se ha convertido en azote / club-caza.com
Raíces biológicas del engaño

El mimetismo animal es un mecanismo de supervivencia / @revistaculturalsur
El mimetismo permite a insectos imitar depredadores tóxicos con precisión asombrosa. De esta forma obtienen protección sin esfuerzo real ni toxicidad propia alguna. La evolución favorece estas estrategias porque aumentan la supervivencia en ecosistemas altamente competitivos y hostiles.
De hecho, el camuflaje se vale de información falsa que emite al entorno natural inmediato hostil. Depredadores ignoran presas invisibles por completo total, y por eso, el engaño persiste a lo largo de generaciones sucesivas. Aunque en ocasiones una alarma falsa en grupos animales propaga pánico colectivo sin amenaza real.
Además, sistemas inmunitarios atacan tejidos propios por errores de reconocimiento precisos fatales. Enfermedades autoinmunes resultan de estas fallas internas graves profundas, ya que células interpretan mal las señales químicas propias internas. Por tanto, el error integra la biología de sistemas vivos complejos.
Por ejemplo, aves usan falsas alertas para robar comida de competidores distraídos fácilmente. Competidores huyen despavoridos, y el emisor gana ventaja clara inmediata directa. Así, el engaño deliberado evoluciona junto a la cooperación social en poblaciones animales.
En la vida contemporánea, algoritmos digitales replican estos patrones biológicos antiguos. En consecuencia, la distorsión colectiva surge en manadas grandes y coordinadas unidas. Grupos adoptan estados erróneos por influencia social dominante fuerte, ya que individuos priorizan consenso grupal colectivo.
La desinformación y el engaño nacen de cómo funciona la mente, pero eso no significa que la humanidad no pueda combatir tales azotes contemporáneos y esté condenada a caer en ellos. Cuando se comprende por qué el cerebro se confunde y cómo la tecnología aprovecha esas debilidades, resulta más sencillo tomar distancia, respirar y elegir información más confiable.
Sesgos cognitivos humanos
El cerebro simplifica la realidad con atajos mentales para no colapsar ante tanta información. Uno de ellos, la confirmación sesgada, empuja a aceptar solo los datos que encajan con ideas previas y a ignorar señales incómodas. Las redes sociales refuerzan ese sesgo al mostrar contenidos similares una y otra vez.
Otro sesgo muy poderoso es la disponibilidad. La mente concede más peso a lo que aparece primero en la pantalla, a lo más reciente o a lo más impactante, aunque no represente el panorama real. Por esa razón, rumores emocionantes vencen con facilidad a estudios serios y a cifras rigurosas.

/ lamoncloa.gob.es
También influye el anclaje. Una frase rotunda, una cifra llamativa o un titular engañoso pueden fijar la primera impresión. Después, incluso cuando llega información mejor, muchas personas se aferran a aquella versión inicial. Las campañas políticas que lanzan mensajes simplistas aprovechan esa inercia y dificultan rectificaciones posteriores.
A pesar de todo, la mente no es un sistema condenado al error. La plasticidad cerebral permite aprender nuevas formas de pensar y revisar creencias con el tiempo. Cuando una persona se expone a buenas explicaciones, contrasta fuentes y se acostumbra a leer con calma, las conexiones neuronales favorecen decisiones más reflexivas.
El sesgo de grupo añade otra capa de dificultad. A menudo importa más coincidir con amistades o con una comunidad en línea que con los datos. Así surgen burbujas informativas donde se repiten las mismas ideas y se descalifica cualquier voz que parezca ajena, lo que alimenta la polarización social.
IA y amenazas modernas
La inteligencia artificial ha dado un salto enorme en capacidad para producir imágenes, audios y videos difíciles de distinguir de la realidad. Deepfakes muestran a figuras públicas diciendo cosas que nunca dijeron, lo que puede dañar reputaciones, agitar emociones políticas y generar conflictos donde antes solo existían desacuerdos manejables.

/ jknewstoday.com
En el campo ambiental, aparece un fenómeno inquietante: la llamada “fake fauna”. Herramientas de generación de imágenes crean animales imposibles o recrean especies extintas como si siguieran vivas. Cuando esos contenidos circulan sin contexto, parte del público subestima la gravedad de la pérdida de biodiversidad y resta urgencia a la conservación.
Además, los algoritmos de recomendación priorizan contenidos que capturan atención, no necesariamente información precisa. Mensajes sobre conspiraciones climáticas o falsas curas milagrosas se difunden con rapidez porque generan sorpresa o indignación. Aunque existan datos que los desmientan, los desmentidos se mueven más despacio y llegan a audiencias más reducidas.
Aun así, la tecnología no es solo parte del problema. Se desarrollan sistemas capaces de detectar montajes de video, rastrear el origen de imágenes y señalar cuándo un contenido fue manipulado. Cuando plataformas utilizan esas herramientas de manera transparente y comparten advertencias visibles, una parte importante de usuarios corrige su percepción.
Las granjas de bots también alteran el paisaje informativo. Miles de cuentas coordinadas pueden inflar una etiqueta, simular apoyo popular a una idea o atacar voces críticas. Esto da sensación de mayoría artificial. Cuando la ciudadanía conoce esa práctica, acepta con menos ingenuidad las “tendencias” y pregunta quién está detrás.
Estrategias de resiliencia
El prebunking, una técnica que previene a los usuarios contra los intentos de manipulación, se perfila como una de las herramientas más prometedoras. En lugar de reaccionar después, consiste en advertir sobre técnicas habituales de manipulación antes de que aparezcan los bulos concretos. Cuando una persona reconoce trucos familiares, su reacción ante mensajes sospechosos se vuelve más prudente y menos impulsiva.

Ante el azote en redes sociales y medios digitales de sesgos y engaños informativos que buscan el control de la humanidad surge el prebunking, una técnica que previene a los usuarios contra los intentos de manipulación / compolitica.com
La verificación de datos mantiene otro frente activo. Equipos periodísticos y proyectos colaborativos revisan afirmaciones públicas, analizan documentos y comprueban imágenes. Aunque no logran corregir todas las falsedades en circulación, ofrecen puntos de apoyo para quienes buscan orientarse y proporcionan materiales didácticos que fortalecen la cultura de contraste.
La alfabetización mediática ocupa un lugar central. No se limita a enseñar a usar redes, sino que invita a mirar titulares con distancia, identificar fuentes fiables y reconocer técnicas emocionales. Cuando estudiantes, familias y comunidades se familiarizan con esos recursos, aumentan las posibilidades de frenar cadenas de desinformación en chats cotidianos.
__________
Fuente:
