El miedo a los robots asesinos veló un desplazamiento más profundo en cuanto a la guerra: el fetiche de la automatización encubre la mercantilización del juicio en combate
El software corporativo reconfigura la guerra mientras preserva apenas el suficiente «control humano» procedimental como para eludir responsabilidades
El problema de la inteligencia artificial militar no es simplemente que las máquinas reemplacen a los humanos. Es la fusión entre las corporaciones tecnológicas y la guerra, que automatiza el juicio, diluye la rendición de cuentas y borra la frontera entre lo civil y lo militar. (Skydance Media / Lightstorm Entertainment)
Ioannis Kalpouzos
jacobinlat.com/26/01/2026
Traducción: Pedro Perucca
Reseña de AI, Automation, and War: The Rise of a Military-Tech Complex (IA, automatización y guerra: el auge de un complejo tecno-militar, aún sin traducción al español), de Anthony King (Princeton University Press, 2025).
Durante demasiado tiempo, dos espectros acosaron al mundo de la inteligencia artificial y la guerra, y ambos aparecieron en la misma película. El primero es Skynet: el fantasma de una inteligencia artificial general que alcanza la conciencia y se vuelve contra sus creadores. El segundo es el propio Terminator: la máquina asesina antropomorfizada que dominó nuestro imaginario colectivo sobre la guerra automatizada. Estos dos fantasmas gemelos funcionaron como distracciones convenientes mientras se desplegaba una transformación más prosaica, pero igualmente revolucionaria: la automatización gradual de las estructuras organizativas y operativas más amplias de las fuerzas armadas, a través de la fusión entre Silicon Valley y el complejo militar-industrial.
AI, Automation, and War, de Anthony King, es sociología que se lee como un informe de inteligencia esclarecedor, rico en descripciones y parco tanto en jerga como en posicionamientos normativos. Se basa en entrevistas con 123 personas del interior del complejo tecnológico-militar en formación en Estados Unidos, el Reino Unido e Israel. Su análisis busca desmitificar algunas de las formas más flagrantes del «fetichismo de la IA», al tiempo que desplaza el foco hacia los desarrollos reales y su influencia sobre los arreglos sociales de la guerra.
Su argumento es claro: los temores, y también las esperanzas, en torno a la autonomía total están mal orientados. La IA no está «reemplazando a los humanos». Tampoco es precisa la idea de un trabajo en equipo humano-máquina que coloque a las armas o los sistemas en pie de igualdad con los agentes humanos. Lo que estamos viendo, en cambio, son sistemas de apoyo a la decisión: herramientas, transformadoras sin duda, que habilitan la planificación, la selección de objetivos y las operaciones cibernéticas. Estas herramientas se usan y se usarán «principalmente para mejorar la comprensión y la inteligencia militar». En el proceso, las relaciones entre lo civil y lo militar están cambiando.
King acierta al correr la discusión del fetiche apocalíptico de los robots asesinos y la superinteligencia. Su relato es descriptivamente rico. Sin embargo, tanto su distinción central como su argumento general merecen cierto escepticismo. No está claro dónde termina el apoyo y el «empoderamiento» y dónde comienza la pérdida de la agencia humana. Lo que sí se vuelve cada vez más evidente es la convergencia entre la automatización de las estructuras de toma de decisiones militares y la profundización de la participación corporativa en la guerra, y el hecho de que ambas están animadas por fetiches similares.
El mapa y el territorio
Así como en la Europa de la primera modernidad la revolución de la cartografía militar transformó la manera en que los ejércitos comprendían el terreno y planificaban campañas, las herramientas tecnológicas actuales están revolucionando la forma en que las fuerzas armadas procesan información, identifican objetivos y coordinan operaciones. Se trata, ante todo, de una revolución del software, aunque también incluye la integración y coordinación de hardware, en especial de los dispositivos que vinculan la vigilancia con la selección de blancos. A diferencia de los sueños de la «IA a la vieja usanza» de los inicios del campo en la década de 1950, no estamos ante un único mapa simbólico que represente toda la realidad. En cambio, la fusión entre el territorio de la guerra y su representación en el software se persigue cada vez más no mediante modelos generales de propósito múltiple, sino a través de aplicaciones específicas y a medida, un giro que exige una integración creciente de actores tecnológicos civiles con el ámbito militar.
Desde el punto de vista funcional, la revolución es una de recolección de inteligencia, análisis y automatización de los ciclos de toma de decisiones, incluyendo a la llamada «cadena de muerte». Agregadores de datos y algoritmos predictivos conectan la información reunida por sensores con parámetros de clasificación para producir puntos de acción. La presencia de humanos en los ciclos generales de decisión y su contribución a decisiones específicas se reevalúa de manera constante. Desde la planificación hasta la identificación de objetivos potenciales y la decisión de atacar, el juicio humano está siendo sistemáticamente «asistido» o «mejorado» —algunos dirían, aunque no King, «reemplazado»— por procesos algorítmicos. El humano permanece, en términos proverbiales, dentro del circuito. Pero la naturaleza de ese circuito está cambiando. Y ese cambio es doble: la automatización se expande y, al mismo tiempo, se profundiza la participación del sector tecnológico civil.
¿Cómo llegamos hasta acá? Como ocurre con mucho de lo que caracteriza a esta etapa del tecnocapitalismo tardío y extremo, la situación actual es a la vez una evolución y un salto más allá del pasado militar-industrial. La capacidad de vigilar y de intervenir militarmente sobre posibles «amenazas» en cualquier punto del planeta fue el objetivo del aparato tecnológico-militar estadounidense durante el último siglo. Como lo expresó el general William Westmoreland durante la guerra de Vietnam: «En el campo de batalla del futuro, las fuerzas enemigas serán localizadas, rastreadas y atacadas casi de manera instantánea mediante el uso de enlaces de datos, evaluaciones de inteligencia asistidas por computadora y control de fuego automatizado».
Este objetivo fue servido de manera consistente por el entramado empresarial asentado en la costa oeste de Estados Unidos, tal como lo describe vívidamente Malcolm Harris en el libro Palo Alto (2023). Y este es también el mensaje —y la tradición— que se reafirma, aunque de forma tortuosa, enrevesada y vacía, en el manifiesto reciente del director ejecutivo de Palantir, Alex Karp, The Technological Republic (La república tecnológica, 2025). El propósito y la obligación del capitalismo tecnológico, junto con la obtención de ganancias, sería servir a la dominación militar del mundo por parte de «Occidente».
La aparición y la trayectoria de Palantir Technologies pueden leerse como el estudio de caso central de esta última etapa de la evolución corporativo-militar. A estas alturas, la historia resulta familiar. Fundada por Peter Thiel y Karp, Palantir fue concebida explícitamente como una empresa de seguridad nacional desde su origen. Tras el 11 de septiembre, los cielos de quienes quedaron sometidos a la Guerra contra el Terror estuvieron dominados por drones de vigilancia que recolectaban información y, cada vez más, llevaban a cabo asesinatos selectivos. Sin embargo, aunque desde el comienzo contó con el respaldo de integrantes del estamento militar y de inteligencia, Palantir tuvo dificultades iniciales para penetrar en los procesos tradicionales de adquisición militar, hasta que encontró su oportunidad trabajando con unidades de fuerzas especiales frustradas por las restricciones a su ritmo operativo y a su letalidad.
El paradigma Palantir
No fueron robots lo que Palantir ofreció, sino soluciones logísticas: la agregación dinámica y el análisis de las enormes cantidades de datos generadas por sensores militares, satélites e inteligencia de fuentes abiertas, adaptadas a operaciones en curso. Su ambición, hoy en gran medida realizada, fue convertirse en el sistema nervioso que conecta una vigilancia ilimitada con la selección de objetivos, operando a través de conflictos y alianzas, al mismo tiempo que diluye la frontera entre la guerra y una política doméstica crecientemente securitizada, en particular en ámbitos como la inmigración, la seguridad policial y la salud.
Un punto de inflexión clave en la consolidación de este modelo fue el Proyecto Maven del Pentágono, un ambicioso esfuerzo por utilizar aprendizaje automático para analizar los terabytes de material de video generados por años de operaciones con drones. Inicialmente asociado con Google, el proyecto buscó automatizar el análisis de imágenes de vigilancia, una tarea que de otro modo habría requerido cientos de miles de horas de trabajo de analistas humanos. Cuando los empleados de Google se rebelaron de forma célebre contra las aplicaciones militares de su tecnología, Palantir ocupó su lugar.
King identifica con agudeza la rebelión en Google como el inicio de «esta nueva edad dorada del complejo tecno-militar». Lejos de representar una resistencia exitosa a la militarización, ese episodio simplemente despejó el terreno para empresas deseosas de trabajar con el sector defensa. El resultado fue la aparición de lo que podría llamarse compañías tecnológicas «nativas militares», firmas como Palantir y Anduril diseñadas desde cero para servir a los mercados de defensa. Desde entonces, no dejaron de proliferar.
Ese ecosistema en expansión puede recorrerse observando la lista «American Dynamism 50», elaborada por Andreessen Horowitz, una firma de capital de riesgo que resultó central tanto en la financiación como en la política de este campo. «Paz mediante la fuerza», ante la anticipación de una posible guerra con China, constituye el hilo conductor de la lógica de inversión y, ahora también, de la estrategia de seguridad nacional de Estados Unidos.
Al mismo tiempo, actores corporativos que inicialmente expresaron reparos o que hasta entonces habían mantenido un enfoque principalmente civil, incluidos gigantes como Google, Microsoft y Amazon, fueron alineándose. El Proyecto Nimbus, el contrato de computación en la nube entre el gobierno israelí, Google Cloud y Amazon Web Services, que desempeñó un papel central en la capacidad de Israel para llevar adelante operaciones de vigilancia y selección de objetivos tanto en la ocupación de Cisjordania como en la destrucción de Gaza, es un caso ilustrativo. El ejército estadounidense depende cada vez más de los satélites Starlink de SpaceX para el mando y control, al igual que, por supuesto, Ucrania en su defensa frente a Rusia.
Israel como estrella guía
El modelo israelí muestra cómo la integración cada vez mayor entre empresas tecnológicas, servicios de inteligencia y unidades militares se concibe como el ideal mismo que este ecosistema global aspira a emular. Algunos de los entrevistados de King critican a los sistemas de Estados Unidos y el Reino Unido por no alcanzar el grado de integración funcional logrado en Israel o los elogian por avanzar en esa dirección. La dirección es la de una militarización amplia.
En el complejo tecno-militar israelí, una fuente de las Fuerzas de Defensa de Israel (FDI) le dijo a King: «Algunos civiles no son realmente civiles. Y algunas industrias militares no son realmente industrias». El comentario de Netanyahu sobre una «super-Esparta», su descripción de Israel como una potencia tecnológica hipermilitarizada y autosuficiente, buscó captar no solo un ideal de autarquía, sino también una profundización adicional de los vínculos y el debilitamiento de las barreras entre las fuerzas civiles y militares.
Este borramiento de fronteras se ejemplifica en empresas como Elbit Systems, que King describe como «integradas con unidades operativas de las FDI (…) para diseñar, desarrollar y mejorar software» en condiciones de combate en tiempo real. Al menos dieciocho corporaciones tecnológicas estadounidenses están involucradas en el conflicto en Ucrania. Aunque pocos detalles de las prácticas específicas son de conocimiento público, algunas brindan asistencia directa mediante algoritmos diseñados a medida sobre el terreno. Palantir afirmó abiertamente que es «responsable de la mayor parte de la selección de objetivos en Ucrania».
El resultado es un circuito de retroalimentación en el que las operaciones militares generan datos que mejoran los sistemas algorítmicos, que a su vez permiten acelerar la «cadena de letalidad» y «reducir la carga cognitiva», con gran parte de ese circuito cada vez más automatizado y capturado por actores corporativos. Estos circuitos generan un tipo particular de adquisición militar. Elke Schwarz mostró cómo estas retroalimentaciones cada vez más rápidas encajan en un ethos propio del capital de riesgo, el de moverse rápido y romper cosas, con lo que el inversor Reid Hoffman llamó «blitzscaling». De hecho, entre 2014 y 2023, el valor de las operaciones de capital de riesgo en el sector defensa creció ocho veces.
Velocidad, volumen, transformación e integración constituyen ahora una nueva forma de cartografía dinámica, que altera tanto la guerra como las relaciones cívico-militares. Estos desarrollos son deliberados, celebrados y abiertamente reconocidos. En junio de 2024, altos ejecutivos de Palantir, Meta y OpenAI fueron formalmente designados como tenientes coroneles de la Reserva del Ejército y asesores sénior en el marco del Cuerpo Ejecutivo de Innovación del Ejército, un símbolo visible de hasta qué punto Silicon Valley penetró en la conducción del Pentágono. La Unidad de Innovación en Defensa del Departamento de Defensa de Estados Unidos tiene su sede en Silicon Valley, está dedicada a acelerar la adopción de tecnologías comerciales y de doble uso, y está integrada por personas con amplias conexiones con el sector tecnológico.
El fetichismo de la autonomía total
¿Podemos hablar entonces de la automatización de la guerra como el reemplazo del juicio político por algoritmos? ¿O lo que está ocurriendo es algo fundamentalmente distinto? King cree que sí y busca trazar una distinción clara entre las armas plenamente autónomas y los sistemas de apoyo a la decisión que dominan cada vez más el campo de batalla. Al desmitificar la promesa de la automatización total y las ideas fantasiosas de una inteligencia artificial (general) aplicada al combate, aplica el concepto marxista de fetichismo de la mercancía a los sistemas militares de IA. Así como las mercancías ocultan las relaciones sociales de producción que las crean, los sistemas militares impulsados por IA ocultan las elecciones organizacionales y las decisiones humanas incorporadas en sus algoritmos. Una recomendación de objetivos generada por un sistema de IA aparece como una evaluación objetiva y técnica, más que como el producto de prioridades políticas y militares específicas programadas por diseñadores humanos.
En efecto, para simplificar una larga línea de crítica interdisciplinaria y conectarla con el sentido común, la inteligencia artificial no es inteligencia real. Sostener lo contrario implica una mistificación. Y, en la guerra, esa mistificación cumple múltiples funciones. Proporciona cobertura política para decisiones de selección de objetivos controvertidas, después de todo, el algoritmo, no nublado por el odio, lo recomendó. Crea distancia entre el resultado final y quienes fijaron los parámetros que condujeron a él, debilitando tanto la responsabilidad moral como la legal. Y oculta la creciente influencia de las corporaciones privadas sobre decisiones militares de vida o muerte.
Quienes se oponen a las armas plenamente autónomas sostuvieron desde hace tiempo que, aun si existiera una equivalencia funcional entre humanos y máquinas en capacidades cognitivas y cinéticas, los sistemas artificiales carecen de la agencia moral necesaria para ser participantes responsables en la guerra. El tabú contra las armas plenamente autónomas apenas se sostiene, con las resoluciones de la Asamblea General de la ONU que lo respaldan, cada vez más precarias y sujetas a resistencias clave.
King sostiene que los desarrollos que describe, la cartografía, las herramientas a medida, la fusión funcional entre tecnología y combate, son muy distintos de la promesa y el espectro de la autonomía total. Estos sistemas de apoyo a la decisión mantienen el tabú contra la autonomía plena y preservan la agencia y el juicio humanos, políticos y militares, desde la planificación hasta las fases operativas. En cambio, revolucionan la aplicación de esa agencia, así como la estructura social de la guerra. Según esta perspectiva, tanto los entusiastas como los alarmistas se equivocaron: la supuesta mercantilización última del pensamiento humano a través del espectro de la inteligencia general y la automatización total fue una distracción.
El bucle está cambiando
Y,sin embargo, esas distracciones cumplieron una función. Mientras los seres humanos permanecieron, de manera precaria, dentro o sobre el proverbial bucle de decisión, el propio bucle cambió de formas que evocan conceptos marxianos conocidos como alienación, mercantilización y fetichismo, no solo de la forma mercancía sino también de la forma corporativa. Mantener a raya el espectro de la autonomía total, aunque fuera apenas, permitió una automatización más profunda y omnipresente de la guerra, tanto en funciones militares rutinarias como críticas, con efectos en última instancia bastante similares en términos de pérdida de agencia política y de juicio en la conducción de la guerra. Además, podríamos estar avanzando hacia un tipo aún más profundo de mercantilización tecnológica, uno que expande y totaliza la guerra a través de la frontera civil-militar.
Los ejemplos de las herramientas utilizadas en la destrucción de Gaza son instructivos. Las dos herramientas centrales, Lavender y Gospel, son agregadores de datos que operan con parámetros preestablecidos y generan predicciones, clasificando a personas y objetos como objetivos propuestos. Existen, por supuesto, elementos clave que reflejan claramente un juicio humano político y moral, y jurídicamente relevante: la amplitud de las clasificaciones; los parámetros extraordinariamente permisivos de daño colateral; la combinación de la clasificación de objetivos con la herramienta inquietantemente denominada Where’s Daddy, que prioriza el ataque a presuntos combatientes en sus domicilios particulares y junto a sus familias; y el uso de estas herramientas, incluso mediante la priorización del volumen de objetivos solicitados, en una campaña de destrucción total.
Al mismo tiempo, también resulta claro, a partir de los informes pertinentes, que la agencia humana se reduce, al menos en los niveles operativos medio e inferior, especialmente allí donde las prioridades de volumen y velocidad en la destrucción física y la muerte dejan poco espacio para la intervención humana o facilitan que los operadores convivan con los resultados. Puede ser que la aprobación ciega de todos los objetivos masculinos propuestos dentro de una ventana de veinte segundos refleje alguna forma mínima de juicio, pero, en el mejor de los casos, se trata de un juicio reducido a la participación en un sistema más amplio y cada vez más automatizado.
Al evaluar la persistencia de la agencia humana, resulta fundamental comprender en qué medida los individuos, en todos los puntos relevantes de un ciclo de selección de objetivos, se involucran de manera significativa con la aplicación de principios jurídicos básicos: la distinción entre civiles y combatientes, y entre bienes civiles y objetivos militares; la proporcionalidad en la generación de daños incidentales a civiles; y la obligación de adoptar todas las precauciones factibles en los ataques para determinar la naturaleza del objetivo y minimizar el daño a civiles, tal como exige el derecho de la guerra. Estos requisitos demandan el ejercicio de agencia cognitiva, discreción y juicio, tanto para equilibrar la necesidad militar con la protección humanitaria como porque el derecho es una creación humana, irreductible al código, orientada a gobernar las relaciones entre seres humanos en el mundo, incluso en un mundo en guerra.
Que un determinado sistema tecnológico, dados sus parámetros de clasificación, sea capaz de establecer las distinciones pertinentes exigidas por el derecho, tanto en el nivel de detección y reconocimiento y clasificación precisa de un objetivo como en el momento del ataque, sigue siendo una cuestión abierta. Cada vez más, sin embargo, esa cuestión queda relegada por desarrollos tecnológicos e institucionales. Incluso con la creciente sofisticación de la detección, el análisis de datos y la representación sintética de la realidad para los usuarios, la evaluación requerirá un juicio situado y no el seguimiento casi ciego de una recomendación.
Que, por ejemplo, un edificio que «por su naturaleza, ubicación, finalidad o uso contribuya de manera efectiva a la acción militar y cuya destrucción total o parcial, captura o neutralización, en las circunstancias del momento, ofrezca una ventaja militar definida», como exige el derecho convencional, pueda determinarse a partir del simple ping automático de una señal de teléfono móvil asociada a una persona clasificada algorítmicamente como potencial militante, no es aceptable. No solo por el margen de error inadmisible o porque tal enfoque refleje una interpretación excesivamente amplia y permisiva del término «uso». Principalmente, porque las decisiones que conducen a la muerte y la destrucción son, y siempre deberían seguir siendo, responsabilidades humanas. A menos, claro, que la prioridad sea el aval automático de una destrucción indiscriminada.
La expresión «control humano significativo» se promovió durante la última década con el objetivo de trazar una línea que la automatización de un sistema no debería cruzar. Es una expresión vaga e imperfecta, que hasta ahora demostró ser incapaz de frenar la marea. La expansión de estas tecnologías a lo largo de todo el ciclo de selección de objetivos la está volviendo cada vez más hueca. Más recientemente se propuso el concepto de «juicio y control humanos adecuados al contexto»; más extenso, quizá más matizado, pero que también corre el riesgo de convertirse en una cáscara vacía.
La captura mutua entre guerra y capitalismo
¿Dónde está la línea entre el apoyo a la decisión y la automatización total, la línea que no deberíamos cruzar? Consideremos tres factores.
En primer lugar, se están mercantilizando ejercicios clave de discreción y juicio en la identificación de objetivos específicos y en su ataque. Aparecen cada vez más como valores abstractos producidos por sistemas automatizados sobre la base de parámetros fijados de antemano. Esos parámetros pueden ser escrupulosos en su supuesta adhesión a las normas jurídicas o, como en el caso de las FDI, extremadamente permisivos, por decir lo menos. Pero en ambos casos la clasificación se automatiza, se abstrae, se mercantiliza y se deshumaniza.
En segundo lugar, se produce una reducción de la agencia humana. Esta reducción puede no ser absoluta. Todavía puede ser posible considerar responsables, en alguna medida, a quienes fijan los parámetros, despliegan las armas, activan el sistema o brindan la aprobación final. En determinadas circunstancias, como argumentan ocasionalmente los entrevistados de King, los participantes pueden percibir a la tecnología como una fuente de insumos informativos más ricos que benefician el ejercicio del juicio y la agencia. Y, sin embargo, al mismo tiempo, la automatización gradual del ciclo de selección de objetivos inevitablemente erosiona la agencia, alejando a los participantes de los costos cognitivos y morales de la guerra. Esto resulta especialmente cierto cuando la velocidad y el volumen se convierten en prioridades dominantes. Como en Gaza, esa velocidad y ese volumen pueden estar al servicio del objetivo de una destrucción indiscriminada y total. Pero incluso en conflictos donde la aniquilación no es la ola que arrastra todo juicio humano, llega un punto en el que simplemente no es posible que los seres humanos ejerzan agencia sobre el volumen de información que las máquinas son capaces de procesar, un punto en el que las herramientas interactivas diseñadas a medida terminan llevando de paseo a sus usuarios humanos. En este contexto, cualquier objeción potencial a la adopción de herramientas de IA y a sus recomendaciones, ya sea a nivel operativo o en un plano social y político más amplio, se debilita cada vez más.
Por último, existe un tercer factor crucial que, a mi juicio, se comprende con menor claridad. ¿Cuál es, para nuestros fines, la relación entre la forma mercancía y la forma corporativa? ¿Cuál es la relación entre, por un lado, un juicio político, militar o jurídico que se mercantiliza mediante la mistificación algorítmica y, por otro, la creciente participación, influencia e incluso captura de la conducción de la guerra por corporaciones orientadas a maximizar ganancias? ¿Avanza necesariamente lo segundo sobre lo primero?
King cree que no, de ahí su distinción entre la autonomía total y las tecnologías de apoyo a la decisión desarrolladas por el emergente complejo tecno-militar. Sostiene que la transformación de la relación civil-militar exige atención, pero no implica necesariamente una pérdida de agencia y que, de hecho, su expresión tecnológica hoy «empodera» a quienes toman decisiones. Sin embargo, vimos que, al menos en lo que respecta a las exigencias del derecho de la guerra, la agencia sí se está perdiendo. Aun así, quizá no exista una conexión necesaria. Quizá el poder y el juicio sobre la conducción de la guerra se estén desplazando hacia actores corporativos dentro del complejo creciente del hipercapitalismo y el militarismo. Y quizá la promoción corporativa de la automatización gradual del bucle de toma de decisiones sea fundamentalmente oportunista, una «disrupción» que facilita la captura, y solo coincida de manera contingente con la mercantilización del juicio y la pérdida de agencia.
Pero hay razones para el escepticismo. La lógica misma del capitalismo y de sus formas asociativas está orientada a promover distancia moral y estructuras de irresponsabilidad. La pérdida de agencia a través de la automatización cumple exactamente esa misma función. El impulso de la guerra por el afán de lucro es, por supuesto, tan antiguo como la guerra misma, pero una sociología de este complejo tecno-militar todavía podría mostrar cómo la ruptura de barreras a través del hipercapitalismo militante conecta la mercantilización de la IA con la mercantilización de la organización social de la conducción de la guerra.
Mientras tanto, los verdaderos robots asesinos, sistemas potencialmente plenamente autónomos «no tripulados», se encuentran muy avanzados en su desarrollo, prueba y despliegue parcial. La captura mutua entre el hipercapitalismo militante y el Estado de seguridad nacional nos está preparando para recibirlos como iguales.
Ioannis Kalpouzos
_______________
Ioannis Kalpouzos se especializa en derecho internacional público, derecho penal internacional, derecho de la guerra y derechos humanos. Es profesor visitante en la Facultad de Derecho de Harvard y también enseñó en King’s College, entre otras instituciones.
__________
Fuente:
