Máquinas en la guerra – Por Fernando Horta

Compartir:

Los conceptos vertidos en esta sección no reflejan necesariamente la línea editorial de NODAL. Consideramos importante que se conozcan porque contribuyen a tener una visión integral de la región.

Fernando Horta *

Lo que hace que este momento sea diferente de cualquier otro anterior es que, por primera vez en la historia de los regímenes de control de armas, los actores que deben regularse son empresas: Anthropic, OpenAI, Palantir, Google.

Los sistemas de IA de vanguardia simplemente no son lo suficientemente fiables como para alimentar armas totalmente autónomas. No se puede confiar en ellos para que ejerzan el juicio crítico que nuestras tropas profesionales y altamente entrenadas demuestran a diario” (Dario Amodei, director ejecutivo de Anthropic, febrero de 2026).

“Debemos aceptar que los riesgos de no actuar con la suficiente rapidez superan los riesgos de una alineación imperfecta” (Departamento de Defensa de EE. UU., Documento de Estrategia de IA, 2025).

  1. El incidente que lo cambió todo.

El 3 de enero de 2026, las fuerzas estadounidenses invadieron Caracas. La noche anterior, los sistemas de radar venezolanos simplemente dejaron de funcionar. Nicolás Maduro fue capturado y trasladado a Nueva York acusado de narcoterrorismo, mientras Washington negociaba el control del petróleo venezolano. Lo que no se mencionó en las declaraciones oficiales fue que se había utilizado un modelo de inteligencia artificial de una empresa de San Francisco durante la operación, no solo en su preparación.

Según informes del Wall Street Journal y confirmaciones de Axios, Claude, el sistema de IA de Anthropic, se integró en las redes militares clasificadas de Nivel de Impacto 6 del Pentágono mediante una colaboración con Palantir Technologies. Esta fue la primera vez que se confirmó la utilización de un modelo de lenguaje empresarial comercial a gran escala en una operación militar clasificada del Departamento de Defensa de Estados Unidos.

El episodio desencadenó una crisis institucional con consecuencias históricas. Anthropic, cuyas directrices prohíben explícitamente el uso de Claude para facilitar la violencia, entró en conflicto abierto con el Pentágono por los límites del contrato de 200 millones de dólares firmado en julio de 2025. El secretario de Guerra, Pete Hegseth, declaró que el Departamento no trabajaría con modelos que «impidieran librar guerras». El 27 de febrero de 2026, Trump ordenó la prohibición de que todas las agencias federales utilizaran productos de Anthropic, designando a la empresa como un «riesgo para la cadena de suministro», una medida sin precedentes contra una empresa estadounidense.

El problema que surge no es ni corporativo ni contractual: es civilizacional. Por primera vez desde la codificación de los Convenios de Ginebra, ha surgido una tecnología capaz de comprimir el ciclo letal de toma de decisiones —lo que los militares denominan la «cadena de ataque»— hasta un punto en que la supervisión humana efectiva corre el riesgo de convertirse en una mera ficción jurídica. Y a diferencia de las armas químicas, biológicas o nucleares, esta tecnología no está contemplada en ningún tratado específico, y sus principales desarrolladores son empresas privadas sometidas a la presión del mercado y Estados que cada vez abandonan más cualquier escrúpulo respecto a su uso.

  1. El Convenio de Ginebra: Una historia de contención de la bestialidad humana

El Convenio de Ginebra no nació del idealismo, sino del horror. En junio de 1859, el activista suizo Henry Dunant presenció la batalla de Solferino, donde aproximadamente 40 000 soldados murieron o resultaron heridos en un solo día, agonizando sin recibir ayuda. Su experiencia dio lugar al libro «Recuerdos de Solferino» (1862) y, dos años después, al Primer Convenio de Ginebra de 1864.

Lo que Dunant comprendió es que la guerra no puede regularse en su existencia, pero sí en sus métodos. La historia del Derecho Internacional Humanitario es la historia de cada generación que se enfrentó a la novedad tecnológica de la violencia con nuevos instrumentos de contención: el Protocolo de Ginebra de 1925 prohibió el gas venenoso; el Tratado de Ottawa de 1997 prohibió las minas antipersona; la Convención sobre Municiones y Submuniciones de 2008 estableció protecciones contra las armas que causaron muertes de civiles décadas después de los conflictos. En todos estos casos, la presión moral y diplomática de actores menos poderosos impuso regímenes vinculantes que, aun siendo imperfectos, reducen el sufrimiento humano. La pregunta que plantea este texto es: ¿estamos ante un momento análogo para la inteligencia artificial en contextos bélicos? La respuesta es sí, y llegamos peligrosamente tarde.

  1. «En la guerra todo vale»: El argumento que debemos afrontar.

Existe un argumento recurrente cada vez que se propone la regulación de los conflictos armados: que en la guerra, por su propia naturaleza, todo vale. Este argumento es empíricamente falso y moralmente peligroso. Es empíricamente falso porque los regímenes legales de contención, incluso los imperfectos, reducen el sufrimiento humano: la prohibición del gas mostaza criminalizó su uso y lo hizo relativamente poco frecuente. Es moralmente peligroso porque normaliza la supresión de la distinción entre combatientes y civiles, entre el daño necesario y la crueldad gratuita. La frase «en la guerra todo vale» es una declaración de intenciones que, al ser asimilada como doctrina, produce Auschwitz, Hiroshima y My Lai.

La IA radicaliza esta tensión. Sus defensores militares afirman que los sistemas de IA son más precisos y reducen la exposición de los soldados. La realidad operativa demuestra lo contrario: el sistema inteligente Maven, fundamental en la campaña estadounidense contra Irán, opera con una precisión de aproximadamente el 60%, significativamente inferior al 84% de los analistas humanos. Cuando la velocidad de la cadena de ataque se reduce de horas a segundos, la intervención humana se convierte en una mera formalidad legal, no en una garantía real.

  1. La IA no inventó la violencia, la amplifica.

La IA no inventó el bombardeo de civiles, la vigilancia de poblaciones enteras ni la identificación y eliminación de individuos basándose en perfiles de datos. Lo que hace la IA es amplificar drásticamente la escala, la velocidad y el alcance de estas capacidades, al tiempo que diluye la responsabilidad moral y legal por sus consecuencias.

En Gaza, los sistemas israelíes Lavender y Gospel fueron programados para aceptar hasta 100 muertes de civiles por cada ataque contra un presunto miembro de Hamás. En Ucrania, ambos bandos emplean IA para procesar más de 50 000 transmisiones de vídeo al mes. El 18.º Cuerpo Aerotransportado de EE. UU. redujo su plantilla de 2000 analistas a 20, utilizando IA para inteligencia operativa.

La cuestión no es si la IA es moralmente buena o mala, sino que funciona como un amplificador de poder sin una amplificación correspondiente de la sabiduría o la responsabilidad . Cuando Pete Hegseth afirma que el Departamento de Guerra no puede «comprometerse por escrito a no usar la IA para la vigilancia masiva» porque «necesitamos estar preparados para el futuro», expone claramente el núcleo del problema: la lógica de la carrera armamentística absorbe y anula cualquier restricción ética antes de que pueda institucionalizarse.

  1. Control de datos: La gran y quizás única superioridad fáctica de Estados Unidos

La IA transforma radicalmente la ecuación de la superioridad militar. El factor limitante no es el algoritmo —existen modelos sofisticados a nivel mundial—, sino los datos. Y Estados Unidos controla, de una manera sin precedentes, los principales flujos globales de datos digitales: plataformas de comunicación (Google, Meta, Apple), sistemas de pago, satélites de vigilancia comercial y redes en la nube (AWS, Azure, Google Cloud). El CENTCOM puede procesar 1000 objetivos diarios con solo el 10 % de sus recursos humanos anteriores, gracias a su acceso a un ecosistema de datos que ningún otro actor global puede replicar a una velocidad y escala comparables.

La invasión de Caracas es ilustrativa: la operación fue tecnológicamente asimétrica no porque Estados Unidos tuviera más soldados, sino porque disponía de más datos y herramientas para procesarlos a velocidad operativa. Esto crea una paradoja geopolítica de primer orden: la única superioridad fáctica verdaderamente sostenible de Estados Unidos en el siglo XXI es informativa, no militar en el sentido tradicional. Al transformarse en capacidad de eliminación autónoma, convierte a Estados Unidos en un árbitro unilateral de vida o muerte en cualquier conflicto, un tipo de soberanía sobre la violencia que ningún sistema internacional puede soportar sin colapsar.

  1. Casos concretos: De Caracas al Golfo Pérsico

El 28 de febrero de 2026, Estados Unidos e Israel lanzaron la Operación Furia Épica contra Irán, la mayor operación militar estadounidense desde la invasión de Irak en 2003. El CENTCOM confirmó el uso de «herramientas avanzadas de IA» para procesar datos de campo en segundos. El núcleo tecnológico fue el Sistema Inteligente Maven, desarrollado por Palantir. En las primeras 24 horas, las fuerzas estadounidenses atacaron más de 1000 objetivos, un ritmo que el propio ejército calificó de «sin precedentes».

Entre estos objetivos se encontraba la escuela para niñas Shajareh Tayyebeh en Minab, al sur de Irán. El ataque causó la muerte de al menos 168 personas, en su mayoría niñas de entre siete y doce años. La escuela figuraba en una lista de objetivos generada con la ayuda de IA, junto con una base de la Guardia Revolucionaria en el mismo complejo. El Washington Post confirmó que la escuela estaba en la lista de objetivos de Estados Unidos. La tasa de precisión de Maven rondaba el 60%, y el ritmo de 1000 objetivos por día con solo el 10% de los recursos humanos anteriores es matemáticamente incompatible con la supervisión humana real de cada decisión de ataque.

  1. BeiDou y la respuesta tecnológica sino-iraní

La asimetría tecnológica se ve parcialmente compensada por una alianza entre China e Irán, cuyas implicaciones aún no han sido plenamente comprendidas en los análisis occidentales. La guerra de doce días de junio de 2025 puso de manifiesto ante Irán que su dependencia del GPS estadounidense representaba una vulnerabilidad fatal. A mediados de 2025, Irán había completado la transición de sus aplicaciones militares a BeiDou, el sistema chino de navegación por satélite, con una precisión militar que permite un margen de error circular inferior a un metro y la capacidad de redirigir drones y misiles en vuelo hasta 2000 kilómetros en tiempo real.

Los analistas de defensa describieron el acuerdo como una operación conjunta de inteligencia y seguridad: China proporciona la fase de localización, identificación y seguimiento de la cadena de ataque iraní mediante sus constelaciones de satélites; Irán, por su parte, ejecuta la ofensiva con una precisión cada vez mayor. El resultado es una arquitectura de cadena de ataque compartida entre dos potencias, que distribuye la responsabilidad y el riesgo político, al tiempo que aumenta la eficacia operativa. China también proporcionó el radar YLC-8B, capaz de detectar el F-35 a distancias de hasta 330 kilómetros, así como apoyo en ciberseguridad y vigilancia naval cerca del Golfo de Omán.

  1. El aislamiento europeo y la incapacidad latinoamericana

El conflicto pone de manifiesto el aislamiento tecnológico de Europa y la incapacidad de América Latina para participar en este debate. Europa ha desarrollado el discurso de la soberanía digital y la autonomía estratégica, pero sin traducirlo en infraestructura : no existe un modelo de lenguaje europeo con capacidades comparables a las de Claude o GPT-4. La OTAN adquirió una versión del sistema inteligente Maven —de la misma Palantir— en 2025, lo que significa que la infraestructura de IA más importante de la alianza occidental es estadounidense, sujeta a las decisiones de empresas estadounidenses y reconfigurable unilateralmente por Washington. La guerra de Irán expuso esta dependencia: Europa quedó excluida de las decisiones operativas y observó el conflicto expresando preocupación por las bajas civiles, mientras que los sistemas que posibilitaron la tasa de 1000 objetivos por día eran operados por empresas que no reconocen ninguna autoridad externa que limite su uso.

La situación en América Latina es de otro orden: una ausencia casi total de capacidad en el sector. Ningún país latinoamericano posee la infraestructura computacional, los datos de entrenamiento ni el capital humano especializado necesarios para desarrollar modelos de IA con capacidades de defensa a una escala relevante. Brasil firmó, en septiembre de 2025, la declaración conjunta del Grupo de Expertos Gubernamentales (GGE) de la Convención sobre Ciertas Armas Convencionales (CCW) que exige negociaciones vinculantes sobre sistemas de armas autónomas letales; un gesto político importante, pero insuficiente sin capacidad tecnológica ni verdadero poder de negociación. Lo que América Latina puede y debe hacer es utilizar su no alineación activa para liderar moralmente el proceso regulatorio, dada la credibilidad diplomática de los países no alineados y la conciencia de que las consecuencias de la desregulación recaerán con mayor dureza sobre aquellos países sin superioridad tecnológica.

  1. Cinco puntos para una nueva convención: ¿Hacia Caracas o Teherán?

Las decisiones de intervención se toman ahora a velocidad de máquina, basándose en algoritmos entrenados con datos a menudo sesgados, mediante sistemas que «recomiendan» objetivos con una confianza estadística que los operadores humanos, con poco tiempo disponible, tienden a aceptar sin un análisis crítico. Esto no es ciencia ficción: es lo que ocurrió en Minab.

Nuestra propuesta no consiste en prohibir la IA en contextos militares, sino en establecer un marco regulatorio vinculante, basado en principios humanitarios, que cree obligaciones claras para los Estados y, de manera innovadora, para las empresas que desarrollan sistemas de IA . Proponemos denominarlo «Convención de Caracas» o «Convención de Teherán», nombres que evocan, sin eufemismos, los casos que hicieron urgente su necesidad. Los cinco puntos se derivan de la propia postura de Anthropic en su enfrentamiento con el Pentágono, una ironía histórica que merece ser destacada: la empresa que creó el primer modelo de IA confirmado para uso militar clasificado es también la que articuló los principios más claros para limitar dicho uso.

Primer punto: la prohibición de los sistemas de armas totalmente autónomos. Anthropic afirmó explícitamente que los sistemas de IA de vanguardia no son lo suficientemente fiables para operar armas totalmente autónomas y no pueden ejercer el juicio crítico propio de los soldados profesionales. Este principio debería elevarse a la categoría de norma vinculante del Derecho Internacional Humanitario. La Convención debería establecer que ningún Estado puede delegar la decisión final sobre el uso de armas letales a un sistema algorítmico. El criterio no es formal («hay un ser humano involucrado»), sino sustantivo («el ser humano tiene capacidad real de supervisión y disidencia»).

Segundo punto: la prohibición de la vigilancia masiva de poblaciones civiles mediante IA. Anthropic la identificó como una de sus «líneas rojas» absolutas. El principio debe universalizarse: ninguna IA puede utilizarse para crear perfiles sistemáticos de poblaciones civiles con fines de control, identificación o selección de objetivos, incluyendo el cruce de datos de redes sociales, comunicaciones privadas y movimientos geográficos para identificar «sospechosos» a escala algorítmica.

Tercer punto: la responsabilidad de las empresas desarrolladoras. El modelo regulatorio actual se centra exclusivamente en los Estados. Sin embargo, los casos de Caracas e Irán demuestran que la línea divisoria entre empresa privada e instrumento estatal es completamente difusa. El nuevo convenio debería establecer obligaciones directas para las empresas que desarrollan sistemas de IA con capacidades militares: una evaluación obligatoria del riesgo humanitario antes de cualquier contrato con actores estatales; el derecho a auditar los usos finales; y la responsabilidad civil y potencialmente penal de los directivos que permitan su uso en violación de los protocolos humanitarios.

Cuarto punto: la transparencia algorítmica como requisito del Derecho Internacional Humanitario. El artículo 36 del Protocolo Adicional I del Convenio de Ginebra ya exige a los Estados que realicen un examen jurídico de los nuevos medios y métodos de guerra. Este requisito debería extenderse a la IA: todo sistema empleado en funciones de selección de objetivos debe someterse a auditorías técnicas independientes que incluyan la evaluación del sesgo de entrenamiento, la tasa de error documentada y la verificación de que los datos de entrenamiento no vulneren las protecciones humanitarias. La opacidad de los algoritmos no puede considerarse un secreto comercial cuando determina quién muere.

Quinto punto: moratoria sobre el uso de datos civiles en el entrenamiento de sistemas de IA militar. Los modelos de IA militar se entrenan frecuentemente con datos de origen civil: patrones de comunicación, imágenes satelitales de zonas pobladas, redes sociales. Cuando estos datos se utilizan para entrenar sistemas de puntería, los civiles que los generaron se convierten involuntariamente en coautores de su propia identificación como posibles objetivos, lo que constituye una violación fundamental del principio de distinción, pilar del Derecho Internacional Humanitario. La nueva convención debería prohibir el uso de datos civiles no combatientes en el entrenamiento de sistemas de IA con funciones militares letales.

  1. Conclusión: La ventana que se está cerrando

En noviembre de 2025, la Asamblea General de la ONU aprobó, con el apoyo de 156 naciones, una resolución histórica que instaba a la celebración de negociaciones para alcanzar un acuerdo vinculante sobre sistemas de armas autónomas letales en la Séptima Conferencia de Examen de la Convención sobre Ciertas Armas Convencionales (CCW) en 2026. Solo cinco países votaron en contra: Estados Unidos, Rusia, India, Israel y Australia. El mensaje es claro: la inmensa mayoría del mundo reconoce la urgencia. La minoría que ostenta el poder tecnológico y militar pertinente se resiste.

Este patrón es históricamente conocido. Las grandes potencias siempre se han resistido a las primeras rondas de negociaciones sobre nuevos regímenes de armamento. Pero la historia demuestra que los regímenes vinculantes son posibles cuando se ejerce una presión moral, científica y diplomática suficientemente sostenida. La campaña de Dunant duró cinco años desde la Batalla de Solferino hasta el Primer Convenio de Ginebra; la prohibición de las armas químicas tardó décadas desde el Protocolo de 1925 hasta el Convenio de 1993. No disponemos de décadas para la IA militar: tanto el desarrollo tecnológico como la integración operativa siguen una curva exponencial.

Lo que distingue este momento de cualquier otro anterior es que, por primera vez en la historia de los regímenes de control de armas, el actor a regular no es exclusivamente el Estado. Son las empresas —Anthropic, OpenAI, Palantir, Google— las que desarrollan las capacidades fundamentales. La ironía de que Trump prohibiera Anthropic el mismo día en que lanzó la mayor campaña de bombardeos con IA de la historia no es una contradicción: es una revelación de que el Estado estadounidense quería una IA sin principios , y que las empresas que intentaron defender esos principios fueron castigadas.

La «Convención de Caracas» no debe interpretarse como una iniciativa antiestadounidense ni como una muestra de ingenuidad humanitaria. Debe entenderse como la única vía viable para evitar que la carrera armamentística de la IA genere un mundo donde la velocidad algorítmica sustituya por completo el juicio humano, donde las poblaciones civiles sean categorizadas y eliminadas por sistemas cuyos errores sean estructuralmente invisibles, y donde la asimetría tecnológica entre el Norte y el Sur globales se convierta en una asimetría de vida o muerte sin ningún mecanismo de rendición de cuentas.

Henry Dunant, testigo de Solferino, no propuso que los ejércitos dejaran de luchar. Propuso que, durante el combate, respetaran a quienes no podían defenderse. Precisamente eso es lo que está en juego ahora: no si la IA se utilizará en la guerra —ya se está utilizando—, sino si habrá un límite acordado colectivamente sobre cómo se utiliza y quién puede ser su objetivo. La diferencia entre un mundo con estos límites y un mundo sin ellos no es la diferencia entre la paz y la guerra. Es la diferencia entre la civilización y la barbarie.

Nota sobre las fuentes

Este texto se basa en fuentes periodísticas de primer nivel (Wall Street Journal, Axios, Washington Post, Al Jazeera, MIT Technology Review, Foreign Policy, The Intercept), documentos institucionales (ONU OODA, CCW/GGE, SIPRI, Chatham House, Atlantic Council), informes técnicos (Defense Security Asia, Small Wars Journal) y documentos públicos de Anthropic, OpenAI y el Departamento de Defensa de EE. UU., elaborados entre enero y abril de 2026. Todos los eventos descritos son reales y están documentados. Las propuestas regulatorias son originales del autor y se derivan analíticamente de los principios expuestos públicamente por Anthropic en su litigio con el Pentágono.

*Doctor en historia de las relaciones internacionales por la Universidad de Brasilia (UnB) y consultor de la ONU/PNUD en transformaciones digitales .

A Terra E Redonda


 

Más notas sobre el tema