Sponsor

Recent

LA IA PUEDE DISEÑAR VIRUS, TOXINAS Y OTRAS ARMAS BIOLÓGICAS. ¿HASTA QUÉ PUNTO DEBERÍAMOS PREOCUPARNOS?

Los científicos debaten si se debe limitar el software de IA biológica para prevenir amenazas

Ilustración: Adrià Voltà

Ewen Callaway
nature.com/ 13/05/2026

Resulta difícil imaginar que un caracol pueda matar a una persona, pero un grupo particularmente venenoso de moluscos marinos, los caracoles cono, sí puede. Sus picaduras contienen una mezcla de pequeñas proteínas llamadas conotoxinas, algunas de las cuales pueden bloquear los canales iónicos del sistema nervioso. No existe antídoto.

Existen cientos de miles de estructuras de conotoxinas, y muchas son inofensivas para las personas o incluso tienen utilidad medicinal: por ejemplo, un tratamiento aprobado para el dolor crónico se deriva de una de ellas. Sin embargo, la investigación sobre conotoxinas peligrosas específicas está muy restringida en algunos países.

Así pues, en 2024, cuando científicos chinos informaron del desarrollo de una herramienta de inteligencia artificial para diseñar conotoxinas¹ , la noticia generó cierta suspicacia. En un correo electrónico enviado a un grupo privado de debate sobre IA y biotecnología, al que tuvo acceso Nature , un alto funcionario del gobierno estadounidense señaló el estudio como un posible riesgo para la bioseguridad. El funcionario, que pidió permanecer en el anonimato por temor a perder su puesto de trabajo, consideró especialmente preocupante que la IA para la conotoxina se basara en un modelo de lenguaje de proteínas de código abierto desarrollado por científicos estadounidenses.

El caracol cono textil ( Conus textile ), una de las numerosas especies venenosas de caracoles cono. Crédito: Pascual Fernández Gómez/iStock vía Getty

Uno de los autores del estudio sobre conotoxinas declaró a Nature que la preocupación es infundada. El trabajo se centró directamente en el descubrimiento de fármacos, afirma Weiwei Xue, químico computacional de la Universidad de Chongqing en China y coautor del artículo. El equipo de Xue ha encontrado algunas conotoxinas con potencial terapéutico tras probar sus diseños en el laboratorio, explica. Si bien es importante considerar el riesgo de que la herramienta de IA se utilice indebidamente, no fue diseñada para crear proteínas dañinas, añade. Además, traducir los diseños en moléculas físicas requiere una gran experiencia y equipamiento. Otros investigadores también declararon a Nature que los riesgos del trabajo parecen mínimos.

Este episodio, sin embargo, ilustra la creciente preocupación por las herramientas de IA emergentes en biología; si bien se desarrollan para ayudar a producir fármacos innovadores y otros beneficios para la sociedad, también podrían facilitar la creación de nuevas amenazas. La revolución en las herramientas de IA biológica, como AlphaFold, ha permitido a los científicos diseñar, con solo pulsar una tecla, proteínas y virus a medida que eliminan superbacterias, y los chatbots de uso general pueden ampliar el conocimiento sobre cómo realizar estos diseños en un laboratorio. ¿Podrían las últimas IA acelerar también el desarrollo de toxinas, virus u otras armas biológicas más potentes?

La amenaza a la bioseguridad es grave, según sugieren entrevistas con más de 20 científicos e investigadores de políticas públicas. «En teoría —y esto es lo que me quita el sueño— se podrían desarrollar toxinas del nivel de la ricina u otros agentes muy letales que serían prácticamente indetectables», afirma Martin Pacesa, biólogo estructural de la Universidad de Zúrich, en Suiza.

Sin embargo, existe un debate sobre qué hacer ante estos riesgos. Algunos abogan por limitar la IA biológica, mientras que otros se muestran cautelosos ante los posibles impactos negativos en la investigación. «Siempre hemos considerado que los beneficios para el mundo superan con creces los peligros», afirma el biofísico computacional David Baker, de la Universidad de Washington en Seattle, quien compartió el Premio Nobel de 2024 por su trabajo pionero en el diseño de proteínas. «Pero, a medida que aumenten las capacidades, creo que esta será una cuestión importante que seguiremos planteando».

Algunos opinan que la atención debería centrarse en detectar y contrarrestar los ataques con armas biológicas basadas en IA, en lugar de intentar prevenirlos mediante restricciones de software. «En mi opinión, ya es demasiado tarde», afirma Timothy Jenkins, diseñador de proteínas de la Universidad Técnica de Dinamarca en Kongens Lyngby.
¿Qué es lo peor que podría pasar?

Existen dos grandes preocupaciones en torno a la IA y las armas biológicas, afirma James Black, investigador de bioseguridad de IA y profesor visitante en la Universidad Johns Hopkins en Baltimore, Maryland.

Una posibilidad es que las personas que trabajan en laboratorios caseros utilicen un chatbot para aprender a producir o desplegar amenazas existentes, como el ántrax. Otra posibilidad es que actores más sofisticados, como estados o grupos terroristas con amplios recursos, combinen chatbots con software biológico especializado para diseñar nuevas armas biológicas.
En 2018, se utilizó un agente neurotóxico como arma biológica en el Reino Unido; en la imagen, agentes de policía se apresuran a acordonar la zona. Crédito: Matt Cardy/Getty

Según los investigadores, la mayor amenaza potencial para la humanidad podrían ser los virus pandémicos diseñados mediante inteligencia artificial (IA). La vía más plausible sería modificar virus existentes, como el SARS-CoV-2 o la gripe, para potenciar propiedades preocupantes, como su capacidad para evadir el sistema inmunitario. Las herramientas de IA existentes que pueden predecir la evolución viral (diseñadas para la vigilancia y el diseño de vacunas) podrían utilizarse indebidamente de esta manera, afirma Doni Bloomfield, profesor de derecho especializado en bioseguridad en la Universidad de Fordham, en Nueva York.

Como alternativa, los modelos de IA podrían diseñar patógenos completamente nuevos que serían difíciles de detectar y combatir. Un preimpreso de 2025 utilizó IA para diseñar los genomas de nuevos virus, de los cuales aproximadamente el 5 % funcionó cuando se crearon en el laboratorio² . Sin embargo, los virus de ese estudio fueron diseñados para infectar bacterias, no personas.

¿Suena aterrador? Un informe de 2025³ de las Academias Nacionales de Ciencias, Ingeniería y Medicina de EE. UU. (NASEM) ofrece una perspectiva realista. Concluyó que existen numerosas barreras que impiden el uso de la IA para mejorar significativamente los patógenos pandémicos o diseñarlos desde cero. Un obstáculo clave es la falta de datos de alta calidad que conecten propiedades como la virulencia o la transmisibilidad con la secuencia genética de un patógeno, lo que dificulta predecir con fiabilidad los cambios que potenciarían dichas características. Otro obstáculo es la dificultad de producir patógenos en el laboratorio y analizar sus características, un problema que la IA ha abordado escasamente.

Algunos científicos se preguntan si los ciberdelincuentes recurrirían a la IA cuando el mundo natural está plagado de amenazas propias. Técnicas con décadas de antigüedad que introducen mutaciones aleatorias pueden mejorar rasgos preocupantes sin necesidad de IA, afirma Brian Hie, biólogo computacional de la Universidad de Stanford en California.

“Si lo que se quiere es causar daño a gran escala, no se necesita diseñar proteínas para ello”, añade Baker.

El informe de la NASEM concluye, sin embargo, que se podría diseñar una toxina utilizando herramientas de IA biológica ya existentes, aunque su producción y administración seguirían siendo un desafío. Una toxina diseñada específicamente para este fin sería indetectable en humanos si no se conociera previamente, y probablemente se utilizaría en ataques individuales, como intentos de asesinato, afirma Jenkins. «Creo que las herramientas que ya se han publicado son un punto de partida suficiente para que la gente cometa actos ilícitos», añade.

Seth Donoughe, director de IA en la organización sin fines de lucro SecureBio en Cambridge, Massachusetts, dice que su principal preocupación es el potencial de la IA, incluidos los chatbots de propósito general y los modelos biológicos personalizados, para aumentar la pericia de los actores malintencionados.

En una serie de experimentos descritos en una prepublicación de febrero⁴ , Donoughe y sus colegas descubrieron que el acceso a modelos de lenguaje a gran escala (LLM, por sus siglas en inglés) de vanguardia permitía a personas con una formación biológica mínima igualar o superar a científicos con doctorado en tareas como la resolución de problemas en protocolos de virología y la generación de código para operar robots de laboratorio. Un trabajo preliminar relacionado de Donoughe y sus colegas reveló que algunos agentes de IA —herramientas que pueden realizar ciertas tareas por sí mismas, como ejecutar código— podrían dirigir IA biológicas para potenciar las propiedades patógenas de una proteína viral.

Sin embargo, otro estudio preliminar⁵ , publicado en febrero por científicos de Active Site, una organización de investigación sin fines de lucro con sede en Cambridge, Massachusetts, reveló que los principiantes con acceso a laboratorios de biología no realizaban tareas como manipular ADN o producir un virus de forma significativamente mejor que los voluntarios que solo utilizaban recursos de Internet (véase «¿Mejora la IA las habilidades de los principiantes en el laboratorio de biología?»). Por lo tanto, es posible que la «mejora» digital que proporciona la IA aún no sea suficiente para producir un arma biológica, pero esto podría cambiar pronto.

Fuente: Ref. 5

“La IA es cada vez más capaz de realizar cualquier tarea relevante que le hayamos encomendado”, afirma Donoughe. “Deberíamos esperar que sea más fácil hacer cosas buenas, y también debería ser más fácil hacer cosas malas”.

Controles de detección

Muchos científicos afirman que la mejor manera de prevenir el desarrollo de armas biológicas basadas en IA es detectar a los responsables en el momento de la fabricación de virus o toxinas. «En última instancia, lo que se haga en la computadora no importa la mayoría de las veces», dice Pacesa. «Lo que importa es cómo se traduce en una proteína o molécula pequeña real y física».

Los investigadores interesados ​​en producir proteínas diseñadas mediante IA o genomas sintéticos suelen encargar sus secuencias genéticas a empresas que sintetizan ácidos nucleicos: es decir, cadenas de ADN y ARN. Algunas de estas empresas forman parte del Consorcio Internacional de Síntesis de Genes (ISC), un grupo industrial que exige a sus miembros que analicen los pedidos de los consumidores para detectar secuencias que puedan codificar toxinas, proteínas patógenas y otras moléculas potencialmente dañinas. Sin embargo, un estudio liderado por investigadores del gigante tecnológico Microsoft⁶ , publicado en 2025, reveló que este análisis puede superarse mediante herramientas de IA.

Eric Horvitz, director científico de la empresa, y su colega Bruce Wittmann, ambos con sede en Redmond, Washington, lideraron un equipo que utilizó herramientas de diseño de proteínas de código abierto para rediseñar 72 moléculas biológicas que podrían representar una amenaza para la bioseguridad, incluyendo toxinas y proteínas virales. Los investigadores diseñaron 76.000 de estos "homólogos sintéticos" para que coincidieran con la estructura de las amenazas existentes lo suficiente como para mantener su función peligrosa. Sin embargo, estaban codificados por secuencias genéticas lo suficientemente distintas como para eludir los programas de detección de las cuatro empresas que participaron en el estudio.

Los resultados fueron mixtos. Las herramientas de análisis de ADN detectaron algunos, pero no todos, los homólogos sintéticos, y alrededor de una cuarta parte de los mejores diseños —aquellos que se predijo que se asemejarían más a una amenaza real— escaparon a la detección. Después de que tres de las cuatro empresas introdujeron actualizaciones para corregir su software, solo se pasó por alto alrededor del 3 % de los diseños mejor calificados. Luego, un preimpreso de marzo de Horvitz, Wittmann y sus colegas 7 descubrió que dividir los homólogos sintéticos en fragmentos de solo 25 nucleótidos puede dificultar su detección, incluso con software de análisis actualizado. Sin embargo, ensamblar fragmentos tan cortos en un gen sería excepcionalmente difícil, dicen los investigadores, y el software funcionó bien con fragmentos más grandes.

Horvitz y sus colegas han mantenido en secreto los diseños, la identidad de los objetivos y otra información clave, aunque los investigadores pueden solicitar acceso a ella.

Por el contrario, Xue y sus colegas publicaron las secuencias de conotoxina que generó su herramienta de IA, aunque su trabajo, a diferencia del de Horvitz, no se centró en crear moléculas peligrosas 1 (véase «Toxinas diseñadas por IA»). Y algunas de estas secuencias podrían no activar alertas si se encargaran a una empresa de síntesis de ADN. Cuando Nature pegó los 45 diseños incluidos en el artículo en una herramienta bioinformática ampliamente utilizada llamada BLAST, que busca secuencias similares en bases de datos genéticas, solo cinco fueron marcadas como secuencias de toxinas coincidentes de caracoles cono. Una herramienta de código abierto diseñada para el cribado de síntesis de ADN arrojó varias coincidencias más.

Fuente: Ref. 1

Una advertencia importante es que las toxinas rediseñadas que eluden los controles podrían ser tan diferentes de las versiones naturales que pierdan su función. Un estudio posterior al trabajo de Horvitz y sus colegas respalda esta idea. Un equipo codirigido por Wittmann y Elizabeth Strychalski, científica del Instituto Nacional de Estándares y Tecnología de EE. UU. en Gaithersburg, Maryland, probó en el laboratorio si las moléculas diseñadas para evadir los controles conservaban la función de la molécula que se suponía que debían imitar⁸ . En sus experimentos (que evitaron el uso de toxinas), las proteínas simples aún funcionaban en algunos casos, pero las enzimas no. «Esto demostró que es algo complicado y difícil de lograr», dice Horvitz, quien participó en el estudio.

Los estudios con homólogos sintéticos fueron tranquilizadores, afirma James Diggans, vicepresidente de bioseguridad y políticas de la empresa de síntesis de ADN Twist Bioscience, con sede en South San Francisco, California, quien también participó en las pruebas de laboratorio. «Actualmente, las prácticas de control siguen siendo una barrera muy eficaz contra el uso indebido, incluso si se utilizan estas herramientas de IA en etapas previas para eludir la detección», explica.

Pero Diggans reconoce que el campo avanza rápidamente. Los nuevos modelos podrían ser más eficaces para diseñar proteínas que evadan la detección que las herramientas de diseño de proteínas que utilizó el equipo de Horvitz, las cuales se publicaron en 2023.

Los investigadores están desarrollando herramientas que podrían ayudar a examinar las órdenes de síntesis de ácidos nucleicos basándose en la estructura y la función potencial de las moléculas codificadas. Baker ha defendido durante mucho tiempo que todas estas órdenes deberían recopilarse en un registro privado , aunque la idea no ha tenido mucha acogida en la industria.

El cribado más sencillo, basado en secuencias, sigue siendo voluntario, por ahora. Para cumplir con una orden ejecutiva estadounidense de 2025, los financiadores de investigación en ese país podrían exigir pronto a los científicos que encarguen ácidos nucleicos a empresas que utilicen software de cribado, y el Reino Unido, la Unión Europea y países como Nueva Zelanda también están considerando requisitos de cribado. Pero la mayoría de los países no tienen ningún requisito. En China, que recibe más del 30 % de los pedidos de síntesis de ADN a nivel mundial, el gobierno ha pedido a las empresas de síntesis de ADN que implementen el cribado, aunque esto aún no es obligatorio, afirma Weiwen Zhang, biólogo sintético de la Universidad de Tianjin. Actualmente, los pedidos extranjeros, que suelen estar sujetos a controles de exportación, tienden a recibir más atención que los pedidos nacionales, añade.

Es posible solicitar una secuencia de toxinas a muchos proveedores de todo el mundo sin que se detecte ninguna irregularidad, afirma Tessa Alexanian, quien trabaja en herramientas y estándares de detección de síntesis de ADN en la Iniciativa Internacional de Bioseguridad y Bioprotección para la Ciencia, una organización sin fines de lucro con sede en Ginebra, Suiza.

A la preocupación se suma el desarrollo de máquinas de síntesis de ADN de sobremesa, que actualmente solo pueden generar secuencias muy cortas, pero que, según los investigadores, podrán producir fragmentos más largos en un futuro próximo.
Medidas de protección para los modelos de IA

Otra línea de pensamiento es que las propias herramientas de IA —en particular las especializadas en biología— deberían contar con controles de acceso o medidas de seguridad más estrictas para evitar su mal uso. Baker afirma que él y su equipo evalúan sistemáticamente cualquier riesgo potencial de sus herramientas de diseño de proteínas antes de ponerlas a disposición del público. Esto concuerda con una serie de principios para una IA y un biodiseño responsables que él y otros publicaron en marzo de 2024 (véase go.nature.com/4cjbu6t ). Casi 200 científicos han firmado la declaración, pero la responsabilidad de autorregularse recae en la comunidad científica. Baker asegura que nunca ha visto la necesidad de restringir las herramientas que su laboratorio desarrolla para el diseño básico de proteínas y otras biomoléculas.

Las empresas que crean chatbots de IA de propósito general, como OpenAI en San Francisco, California, ya entrenan sus modelos para rechazar o responder de forma segura a solicitudes perjudiciales, incluidas las consultas relacionadas con la bioseguridad. En concreto, un artículo de seguridad de OpenAI indica que los modelos de la empresa no deberían proporcionar "pasos detallados y prácticos" para llevar a cabo actividades potencialmente dañinas a gran escala, como el despliegue de armas químicas y biológicas.

Según han sugerido algunos investigadores, podría ser necesaria una práctica similar para los modelos de IA biológica. Algunos desarrolladores de estas herramientas también han comenzado a añadir medidas de seguridad a los datos de entrenamiento de sus modelos antes de su lanzamiento. Por ejemplo, el modelo de lenguaje genómico Evo 2 se entrenó con 128 000 secuencias genómicas de especies que abarcan todo el árbol de la vida, pero excluyó los virus que infectan a organismos eucariotas como los humanos y otros animales. Como resultado, Evo 2 no logra diseñar secuencias de esos virus ni predecir sus propiedades, como los efectos de las mutaciones 9 .

Sin embargo, los científicos han descubierto que las medidas de seguridad pueden superarse. La investigación de Donoughe y su equipo⁴ reveló que casi el 90 % de los participantes en ese estudio pudieron obtener información biológica de alto riesgo a través de herramientas de gestión de la vida de uso general, y otros investigadores advierten con frecuencia que los chatbots siguen proporcionando este tipo de información a los usuarios. En un artículo de abril sobre esta preocupación, The New York Times informó que un hombre arrestado en India el año pasado, acusado de planear la fabricación de la toxina ricina para un ataque terrorista, solicitó asesoramiento a ChatGPT y a búsquedas de Google con inteligencia artificial. (El artículo cita a un portavoz de OpenAI, quien afirmó que, según informes públicos, la información que buscaba el hombre ya estaba disponible en línea).

En cuanto al software de IA especializado, el bioingeniero de Stanford Le Cong y sus colegas pudieron usar un agente de IA de propósito general para engañar a Evo2 y hacer que generara nuevas versiones de proteínas del SARS-CoV-2 y del VIH-1 10 . Otro estudio encontró que el "ajuste fino" de Evo 2 usando datos genómicos disponibles públicamente de virus que infectan a humanos también restauró capacidades 11 .

Hie, quien codirigió el desarrollo de Evo 2, afirma no estar sorprendido de que se puedan superar las medidas de seguridad, dada la disponibilidad de datos de entrenamiento. Tampoco le sorprendería que modelos como este pudieran diseñar virus que infecten células humanas. Pero incluso si existieran tales capacidades, le gustaría seguir publicando los modelos con la mayor transparencia posible. «Creo que la apertura de los modelos contribuye a una mayor seguridad, ya que los investigadores en seguridad pueden estudiarlos libremente», afirma.

Nature 653 , 344-347 (2026)

doi: https://doi.org/10.1038/d41586-026-01476-x
______________
Referencias

Guo, M. y col. J. Computación. Ayudó a Mol. Des. 39 , 4 (2025).

King, SH et al. Preimpresión en bioRxiv https://doi.org/10.1101/2025.09.12.675911 (2025).

Academias Nacionales de Ciencias, Ingeniería y Medicina. La era de la IA en las ciencias de la vida: beneficios y consideraciones de bioseguridad (National Academies Press, 2025).

Zhang, CBC et al. Preimpresión en arXiv https://doi.org/10.48550/arXiv.2602.23329 (2026).

Hong, SZ et al. Preimpresión en arXiv https://doi.org/10.48550/arXiv.2602.16703 (2026).

Wittmann, BJ et al. Science 390 , 82–87 (2025).

Wittmann, BJ et al. Preimpresión en bioRxiv https://doi.org/10.64898/2026.03.04.709671 (2026).

Ikonomova, SP et al. Preimpresión en bioRxiv https://doi.org/10.1101/2025.05.15.654077 (2025).

Brixi, G. et al. Nature 652 , 1349–1361 (2026).

Zhang, Z., Zhou, Z., Jin, R., Cong, L. y Wang, M. Preimpresión en arXiv https://doi.org/10.48550/arXiv.2505.23839 (2025).

Black, JR M et al. Preimpresión en arXiv https://doi.org/10.48550/arXiv.2511.19299 (2025).

Bloomfield, D. et al. Science 391 , 558–561 (2026).

________
Fuente:

Entradas que pueden interesarte

EMANCIPACIÓN DE YOUTUBE, OTRA MANERA DE VER LA ACTUALIDAD

ENTRADA DESTACADA

LAS CUATRO EMPRESAS PRIVADAS QUE CONTROLARÁN LAS ELECCIONES PRESIDENCIALES DEL 31 DE MAYO

LAS CUATRO EMPRESAS PRIVADAS QUE CONTROLARÁN LAS ELECCIONES PRESIDENCIALES DEL 31 DE MAYO

¿Cuáles son los riesgos de cara a los comicios del 31 de mayo? A pocas semanas de la primera vuelta…

LO MÁS VISTO

UN "CÓDIGO" DE 5 AMINOÁCIDOS

El hito del CSIC para que los cultivos resistan la sequía sin perder productividad Investigadores del CSIC identifican un código de cinco aminoácidos que habilita la reprogramación del estrés hídrico en cultivos estratégicos. Recreación artística del sistema de respuesta a la sequía, relacionado con los receptores de ABA (en detalle). Fuente: ChatGPT / Scruzcampillo. Santiago Campillo Brocal, Biólogo. Máster en Biología Molecular y Biotecnología  Director de Muy Interesante Digital/17.04.2026 La supervivencia de una planta en un entorno árido depende de una decisión bioquímica constante: cuándo cerrar sus poros para conservar agua y en qué momento abrirlos para mantener el crecimiento. Este equilibrio responde al ácido abscísico, una hormona que señaliza el estrés hídrico y activa las defensas vegetales. Un estudio liderado por el Instituto de Química Física Blas Cabrera y el IBMCP, publicado en la revista PNAS , describe el mecanismo estructural mínimo que regula esta respuesta. U...

CÓMO EL EJÉRCITO DE LA DERECHA RELIGIOSA DE TRUMP SE ESTÁ PREPARANDO PARA EL APOCALIPSIS (Y UNA DEVASTADORA GUERRA CIVIL)

Esperando el Apocalipsis Imagen ilustrativa E.O con nano banana 2 de google.com Alex Hannaford elviejotopo.com/17 abril, 2026  Donald Trump publicó una imagen generada por IA en la plataforma Truth Social, donde se le ve vistiendo una túnica roja y blanca, colocando su mano sobre la frente de una persona enferma en una cama de hospital. La imagen, rodeada de personas rezando o esperando algo, muestra la bandera estadounidense, la Estatua de la Libertad, aviones de combate, águilas y otras figuras al fondo. Cabe señalar que, poco después de la publicación anterior, Donald Trump publicó un extenso artículo contra el Papa León XIII, acusándolo de apoyar el programa de armas nucleares de Irán, oponerse a la operación militar estadounidense en Venezuela en enero y reunirse con simpatizantes del expresidente Barack Obama. «No quiero un papa que critique al presidente de los Estados Unidos, porque estoy haciendo exactamente lo que me eligieron para hacer, por una abrumadora mayoría: reduc...

ALEMANIA, DEL ESCUDO SOCIAL AL ESCUDO MILITAR

La regla es: déficit para las armas, austeridad para las personas  Alemania está cometiendo el mismo error en el que incurrió tres veces en el último siglo y medio. Cada rearme alemán —desde la guerra franco-prusiana de 1870, pasando por la carrera armamentística previa a la Primera Guerra Mundial en 1914, hasta el rearme nazi de 1933— ha terminado en catástrofe Imagen E.O con Nano Banana 2 Por: Lic. Alejandro Marcó del Pont eltabanoeconomista.wordpress.com/mayo 3, 2026  Nunca en la historia de la posguerra alemana se había visto una operación de ingeniería fiscal y social tan descaradamente hipócrita. Mientras Friedrich Merz, anuncia un drástico tijeretazo de casi 40.000 millones de euros al Estado del Bienestar, el fin de la gratuidad del seguro médico para cónyuges no cotizantes y pensiones reducidas a una mera «cobertura básica», su gobierno ha aprobado simultáneamente una reforma constitucional que permite endeudarse sin límites para financiar el rearme, eliminando de un ...