En las primeras 24 horas de la operación Furia Épica, que se inició el 28 de febrero contra Irán, las fuerzas estadounidenses alcanzaron más de mil objetivos, el doble de la guerra de Iraq en el 2003. En 10 días ya habían alcanzado 5 mil objetivos, según el Comando Central de Estados Unidos (Centcom). Todo esto gracias a Project Maven, el principal programa de inteligencia artificial del Pentágono.
Aunque el curso de la guerra sigue siendo indefinido, y la fuerza bélica de Estados Unidos ha sido confrontada con astucia por los iraníes, este conflicto va a redefinir las estrategias militares a futuro debido al uso de la IA.
Project Maven fue lanzado en el 2017 como un experimento para ayudar a los analistas militares a procesar la enorme cantidad de información e imágenes recopiladas por los drones. Pero con el transcurrir de los años ha pasado de ser una herramienta más a ser el corazón de la estrategia de defensa de Estados Unidos, convirtiéndose en un sistema integral de gestión del campo de batalla.
Maven analiza a alta velocidad imágenes satelitales para detectar movimientos o identificar objetivos, al tiempo que elabora un cuadro instantáneo del cuadro de operaciones para determinar el mejor plan de ataque. Gracias a Maven, se ha reducido significativamente el tiempo en que se reconoce un objetivo y se evalúan soluciones, las cuales se presentan a los comandos militares que finalmente deciden qué se ataca y qué no.
“Estamos en un escenario nuevo y nos enfrentamos a nuevas guerras que trastocan los conceptos tradicionales de los conflictos armados. Y estas guerras son híbridas, multidominio y no se van a llevar exclusivamente en el campo de batalla”, afirma a El Comercio el exdirector de la Escuela Nacional de Inteligencia y experto en defensa y seguridad, Andrés Gómez de la Torre. Y añade: “Dentro de estas características nuevas está la inteligencia artificial, como herramienta en los nuevos conflictos de este siglo XXI”.
Competencia activa
- Hasta el momento, Project Maven utiliza el modelo Claude, de la empresa Anthropic, lo que le ha permitió dar un salto cualitativo al interactuar con el sistema en un lenguaje sencillo.
- Sin embargo, esta colaboración no será por mucho tiempo pues la administración Trump decidió sancionar a Anthropic debido a desacuerdos por el uso de la IA en la vigilancia de ciudadanos estadounidenses.
- Google, OpenAI y xAI ya compiten por proveer tecnología para reemplazar a Claude dentro del sistema Maven.
El sistema Maven empezó a probarse en el terreno en 2002, con la guerra de Ucrania, y luego en el 2024 en ataques contra Iraq y los hutíes de Yemen. Desde entonces ya está a disposición de todos los servicios y mandos de combate estadounidenses, según declaró el año pasado el entonces director de la Agencia Nacional de Inteligencia Geoespacial (NGA), vicealmirante Frank Whitworth, quien fue el principal impulsor de la integración de la IA en la inteligencia militar.
El secretario de Defensa de EE. UU., Pete Hegseth, interviene durante una rueda de prensa en el Pentágono, en Washington D. C., el 8 de abril de 2026. Foto: Mandel NGAN / AFP
`; document.body.appendChild(modalWrapper); let figcaption = modalWrapper.querySelector(«figcaption»); if(figcaption) figcaption.style.display=»none»; modalWrapper.querySelector(«.s-multimedia__close-modal»).addEventListener(«click»,()=>{modalWrapper.remove(); e.style.display=»flex»; if(caption) caption.style.display=»block»;});})})});});
“Estados Unidos sacó un plan de acción dentro del cual aparece muy explícitamente el objetivo de acelerar aún más la adopción de la IA dentro de todo el sector defensa”, dice a este Diario Cecilia Rikap, profesora de la University College de Londres y experta en tecnología digital.
Los cuestionamientos éticos
Actualmente, Maven ya es capaz de realizar mil recomendaciones de objetivos en apenas una hora. Por ello, su capacidad para acelerar procesos críticos lo posiciona como uno de los desarrollos más influyentes en la guerra moderna.
Sin embargo, los beneficios tienen su contraparte: los debates éticos sobre las consecuencias de utilizar la IA en las guerras, sobre todo cuando se automatizan procesos y es la tecnología la que termina reemplazando las decisiones humanas.
“La tecnología es la herramienta clave en una guerra moderna, porque sin tecnología estás muerto. Y esto nos lleva a las llamadas armas autónomas, donde el elemento humano en los campos de batalla está declinando hacia procedimientos autónomos establecidos por la IA”, prosigue Gómez de la Torre.
Tras los ataques contra Irak en el 2024, el director de tecnología del Mando Central de EE.UU., Schuyler Moore, declaró a Bloomberg que “la ventaja que se obtiene de los algoritmos es la velocidad”. Sin embargo, la preocupación no está en lo rápido que pueda gestionar la IA, sino que los altos comandos militares terminen solo dando el visto bueno a las recomendaciones formuladas por un sistema automatizado, al que finalmente no se puede responsabilizar por los errores que se puedan cometer.
Un ejemplo de ello sería lo ocurrido al inicio de la guerra en Irán, cuando un bombardeo estadounidense destruyó una escuela primaria en Minab, Irán. Murieron 175 personas, la mayoría niñas. El Pentágono aún está investigando lo ocurrido y, por supuesto, no se ha hecho responsable de la matanza. Sin embargo, según lo trascendido a la prensa estadounidense, se habría tratado de datos erróneos analizados por la inteligencia artificial.
“Nos convertiremos en una fuerza de combate que dará prioridad a la IA en todos los ámbitos”.
“La IA no solo irrumpe sino altera el campo de batalla, porque los comandantes están declinando el control humano de la guerra hacia estos procedimientos autónomos”, señala Gómez de la Torre, quien enfatiza que la gran discusión ahora está en los factores éticos ante procesos que no son 100% fiables.

Vista del Pentágono en Washington, D. C. Foto: AFP
/ DANIEL SLIM
`; document.body.appendChild(modalWrapper); let figcaption = modalWrapper.querySelector(«figcaption»); if(figcaption) figcaption.style.display=»none»; modalWrapper.querySelector(«.s-multimedia__close-modal»).addEventListener(«click»,()=>{modalWrapper.remove(); e.style.display=»flex»; if(caption) caption.style.display=»block»;});})})});});
“Hay una discusión teórica y doctrinaria sobre el empleo de la IA que todavía está por definirse. Hay un aspecto de derecho humanitario y una suerte de agujero negro que se deberá tratar. Irán es un gran laboratorio de experimentación de la IA, como también lo ha sido la Franja de Gaza”, agrega el analista peruano.
Desde sus inicios, Project Maven enfrentó cuestionamientos sobre el uso de la inteligencia artificial en aplicaciones militares y su participación en conflictos. En el 2018, más de 3.000 empleados de Google firmaron una carta en contra del contrato que la empresa tenía con el Pentágono, argumentando que cruzaba una “línea roja”, motivando incluso que varios ingenieros renunciaran. La empresa de Silicon Valley decidió no renovar el contrato y estableció principios éticos que excluían su participación en sistemas de armamento. Sin embargo, años después Google eliminó estas restricciones y anunció que volverá a involucrarse en la inteligencia militar.




