En las primeras 24 horas de la operación Furia Épica, que se inició el 28 de febrero contra Irán, las fuerzas estadounidenses alcanzaron más de mil objetivos, el doble de la guerra de Iraq en el 2003. En 10 días ya habían alcanzado 5 mil objetivos, según el Comando Central de Estados Unidos (Centcom). Todo esto gracias a Project Maven, el principal programa de inteligencia artificial del Pentágono.
`; document.body.appendChild(modalWrapper); let figcaption = modalWrapper.querySelector(«figcaption»); if(figcaption) figcaption.style.display=»none»; modalWrapper.querySelector(«.s-multimedia__close-modal»).addEventListener(«click»,()=>{modalWrapper.remove(); e.style.display=»flex»; if(caption) caption.style.display=»block»;});})})});});
“Estados Unidos sacó un plan de acción dentro del cual aparece muy explícitamente el objetivo de acelerar aún más la adopción de la IA dentro de todo el sector defensa”, dice a este Diario Cecilia Rikap, profesora de la University College de Londres y experta en tecnología digital.
Los cuestionamientos éticos
Actualmente, Maven ya es capaz de realizar mil recomendaciones de objetivos en apenas una hora. Por ello, su capacidad para acelerar procesos críticos lo posiciona como uno de los desarrollos más influyentes en la guerra moderna.
Sin embargo, los beneficios tienen su contraparte: los debates éticos sobre las consecuencias de utilizar la IA en las guerras, sobre todo cuando se automatizan procesos y es la tecnología la que termina reemplazando las decisiones humanas.
“La tecnología es la herramienta clave en una guerra moderna, porque sin tecnología estás muerto. Y esto nos lleva a las llamadas armas autónomas, donde el elemento humano en los campos de batalla está declinando hacia procedimientos autónomos establecidos por la IA”, prosigue Gómez de la Torre.
Tras los ataques contra Irak en el 2024, el director de tecnología del Mando Central de EE.UU., Schuyler Moore, declaró a Bloomberg que “la ventaja que se obtiene de los algoritmos es la velocidad”. Sin embargo, la preocupación no está en lo rápido que pueda gestionar la IA, sino que los altos comandos militares terminen solo dando el visto bueno a las recomendaciones formuladas por un sistema automatizado, al que finalmente no se puede responsabilizar por los errores que se puedan cometer.
Un ejemplo de ello sería lo ocurrido al inicio de la guerra en Irán, cuando un bombardeo estadounidense destruyó una escuela primaria en Minab, Irán. Murieron 175 personas, la mayoría niñas. El Pentágono aún está investigando lo ocurrido y, por supuesto, no se ha hecho responsable de la matanza. Sin embargo, según lo trascendido a la prensa estadounidense, se habría tratado de datos erróneos analizados por la inteligencia artificial.
“Nos convertiremos en una fuerza de combate que dará prioridad a la IA en todos los ámbitos”.
“La IA no solo irrumpe sino altera el campo de batalla, porque los comandantes están declinando el control humano de la guerra hacia estos procedimientos autónomos”, señala Gómez de la Torre, quien enfatiza que la gran discusión ahora está en los factores éticos ante procesos que no son 100% fiables.

Vista del Pentágono en Washington, D. C. Foto: AFP
/ DANIEL SLIM
`; document.body.appendChild(modalWrapper); let figcaption = modalWrapper.querySelector(«figcaption»); if(figcaption) figcaption.style.display=»none»; modalWrapper.querySelector(«.s-multimedia__close-modal»).addEventListener(«click»,()=>{modalWrapper.remove(); e.style.display=»flex»; if(caption) caption.style.display=»block»;});})})});});
“Hay una discusión teórica y doctrinaria sobre el empleo de la IA que todavía está por definirse. Hay un aspecto de derecho humanitario y una suerte de agujero negro que se deberá tratar. Irán es un gran laboratorio de experimentación de la IA, como también lo ha sido la Franja de Gaza”, agrega el analista peruano.
Desde sus inicios, Project Maven enfrentó cuestionamientos sobre el uso de la inteligencia artificial en aplicaciones militares y su participación en conflictos. En el 2018, más de 3.000 empleados de Google firmaron una carta en contra del contrato que la empresa tenía con el Pentágono, argumentando que cruzaba una “línea roja”, motivando incluso que varios ingenieros renunciaran. La empresa de Silicon Valley decidió no renovar el contrato y estableció principios éticos que excluían su participación en sistemas de armamento. Sin embargo, años después Google eliminó estas restricciones y anunció que volverá a involucrarse en la inteligencia militar.













