El Departamento de Defensa de Estados Unidos ha catalogado a la empresa de inteligencia artificial (IA) Anthropic como un “riesgo inaceptable para la cadena de suministro” y la “seguridad nacional”.
El Departamento de Defensa de Estados Unidos ha catalogado a la empresa de inteligencia artificial (IA) Anthropic como un “riesgo inaceptable para la cadena de suministro” y la “seguridad nacional”.
La etiqueta de riesgo fue colocada a la compañía responsable del modelo de IA Claude luego de que las negociaciones para la renovación de su contrato con el Estado concluyeran sin resultados satisfactorios.
Esta categorización se emplea para los negocios vinculados a los rivales geopolíticos de Washington y ha sido rechazada frontalmente por la firma tecnológica, que ha emprendido una demanda contra el gobierno estadounidense. Empresas como Huawei y TikTok, procedentes de China, son algunos ejemplos del uso que se había dado hasta ahora para esta denominación.
Claude, el asistente IA de Anthropic, es uno de los más populares en el mercado actual. (Foto: JOEL SAGET / AFP)
/ JOEL SAGET
`; document.body.appendChild(modalWrapper); let figcaption = modalWrapper.querySelector(«figcaption»); if(figcaption) figcaption.style.display=»none»; modalWrapper.querySelector(«.s-multimedia__close-modal»).addEventListener(«click»,()=>{modalWrapper.remove(); e.style.display=»flex»; if(caption) caption.style.display=»block»;});})})});});
El centro de la discrepancia entre Washington y Anthropic se encuentra en las restricciones éticas que tiene la compañía de IA para el uso militar de Claude. Estos parámetros prohíben que su modelo sea empleado para armas autónomas y sistemas de vigilancia masivos.
Anthropic se negó a eliminar los mecanismos de seguridad de sus sistemas, por lo que la Administración Trump le endilgó a la compañía la calificación de riesgo para el Estado. El gobierno norteamericano justificó su decisión señalando que esa negativa abría la posibilidad a que la compañía pueda actuar arbitrariamente “desactivando su tecnología o alterando de forma preventiva el comportamiento de su modelo antes o durante operaciones bélicas en curso”.
La medida no solo implica que las instituciones estatales estén impedidas de utilizar Claude y otras tecnologías de Anthropic, sino que la prohibición también alcanza a las empresas proveedoras de servicios del gobierno estadounidense.
El origen de Anthropic se remonta al 2020 cuando una quincena de empleados de OpenAI, creadora de ChatGPT, cuestionaron lo que consideraban políticas poco éticas de la empresa. Entre ellos se encontraban los hermanos Daniela y Dario Amodei, quienes por ese entonces trabajaban como vicepresidenta de seguridad y políticas y vicepresidente de investigación, respectivamente.
Los renunciantes cuestionaban el presunto énfasis excesivamente comercial que había tomado OpenAI, desarrollando productos sin analizar en profundidad riesgos potenciales. Por ese entonces la empresa conducida por Sam Altman había recibido cuantiosas inyecciones de capital por parte de Microsoft y otros inversores, decidiendo acelerar varios de sus proyectos para demostrar el potencial de su tecnología.
Un año más tarde los antiguos miembros de OpenAI fundaron Anthropic con Dario Amodei como director ejecutivo y su hermana como presidenta. Sobre el papel, la compañía con sede en San Francisco (California) funciona con el modelo de corporación de beneficio público, teniendo como principios el uso responsable de la inteligencia artificial y la generación de modelos seguros para el público.

Anthropic, con sede en San Francisco, fue fundada en 2021 por exejecutivos de OpenAI y el creadora del popular chatbot Claude.
/ Anthropic
`; document.body.appendChild(modalWrapper); let figcaption = modalWrapper.querySelector(«figcaption»); if(figcaption) figcaption.style.display=»none»; modalWrapper.querySelector(«.s-multimedia__close-modal»).addEventListener(«click»,()=>{modalWrapper.remove(); e.style.display=»flex»; if(caption) caption.style.display=»block»;});})})});});
Parte de ese ideario se plasmó en que el modelo de Anthropic, Claude, se rige por el principio de ser una “IA constitucional”
En términos generales, lo anterior significa que Claude se basa en la retroalimentación humana y tiene una suerte de ‘Constitución’ suministrada por sus creadores y que tiene una serie de reglas inviolables, lo que hace que esta IA se entrene a sí misma para cumplir esos principios de forma implacable. Entre estos últimos se encuentran una prohibición que tiene la IA de permitir que la usen para provocar daño físico y contribuir en la creación de armas.
Estas normas son las que el Pentágono busca que Anthropic deje sin efecto como parte de sus proyectos militares.
Paradójicamente, en julio del 2024 Anthropic había anunciado un acuerdo de inicial implementación de su sistema en el Departamento de Defensa de Estados Unidos, que se prolongaría por dos años, y es el que no se ha podido renovar.
La empresa señaló que Claude se integraría a los “flujos de trabajo” de Palantir, firma que tiene una relación mucho más estrecha con los proyectos militares de Washington.
En el tiempo reciente la empresa californiana ha sido criticada porque, a pesar de su discurso, su tecnología se habría utilizado en los recientes ataques de Estados Unidos a Irán, según reportó The Wall Street Journal a fines de febrero.
Obreros iraníes retiran los escombros de un edificio dañado tras un ataque militar contra la capital iraní, Teherán, el 15 de marzo de 2026. (Foto de Atta KENARE / AFP)
`; document.body.appendChild(modalWrapper); let figcaption = modalWrapper.querySelector(«figcaption»); if(figcaption) figcaption.style.display=»none»; modalWrapper.querySelector(«.s-multimedia__close-modal»).addEventListener(«click»,()=>{modalWrapper.remove(); e.style.display=»flex»; if(caption) caption.style.display=»block»;});})})});});
Poco después, un informe de CBS News profundizó en dicha información señalando que a inicios de marzo el Ejército estadounidense seguía utilizando Claude para sus operaciones en Medio Oriente a pesar de que Donald Trump ya había ordenado la suspensión del uso de la tecnología de Anthropic. En díálogo con el mismo medio, Dario Amodei había señalado que cruzar los límites impuestos por Anthropic a su IA era “contrario a los valores estadounidenses” y que desde su empresa “querían defender” esos principios.
Según explicaba semanas atrás a The Guardian el especialista Craig Jones, docente de geografía política de la Universidad de Newcastle, el Pentágono está usando IA para que muestre “recomendaciones sobre qué objetivos atacar” a un nivel considerablemente más veloz que el pensamiento humano.
“Tienes escala y velocidad, estás llevando a cabo operaciones de asesinato al mismo tiempo que estás descabezando la capacidad del régimen para responder con todos sus misiles balísticos aéreos. Esto podría llevar días o semanas en guerras históricas y ahora haces todo a la vez”, explicaba Jones.
Desde el inicio de su segundo mandato, Donald Trump dejó claro que buscaba convertir la inteligencia artificial en una herramienta importante para consolidar la posición estadounidense en el escenario global, plan que había mencionado desde su campaña presidencial.
Donald Trump ha señalado que las empresas tecnológicas deben plegarse a los planes de seguridad gubernamentales en materia de IA. (SAUL LOEB / AFP)
/ SAUL LOEB
`; document.body.appendChild(modalWrapper); let figcaption = modalWrapper.querySelector(«figcaption»); if(figcaption) figcaption.style.display=»none»; modalWrapper.querySelector(«.s-multimedia__close-modal»).addEventListener(«click»,()=>{modalWrapper.remove(); e.style.display=»flex»; if(caption) caption.style.display=»block»;});})})});});
A pocos días de su regreso a la Casa Blanca, el líder del Partido Republicano emitió la Orden Ejecutiva 14179, en la que señalaba que su política era “mantener y mejorar el dominio global de Estados Unidos en inteligencia artificial para promover el bienestar humano, la competitividad económica y la seguridad nacional”.
Otras órdenes posteriores mantuvieron la misma línea y en ellas el presidente de EE.UU. anunció que buscaba “prevenir el uso progresista de la IA en el gobierno federal” y que dejaría sin efecto el marco regulatorio en la materia que había introducido la gestión de Joe Biden, al que calificó de “restricciones onerosas”. Muchas de estas barreras legales estaban relacionadas a un marco ético para el uso de la IA y el nuevo gobierno sostuvo que eliminarlas era una necesidad en la pugna geopolítica con China.
Los documentos publicados por Trump generaron un escenario regulatorio en el que se combinaban los incentivos financieros para gobiernos estatales y empresas para dejar de lado restricciones en el uso de la IA, mientras que por otro el mandatario norteamericano amenazaba con recurrir a la Ley Sherman Antimonopolio para castigarlas por no ajustarse a la agenda que planteaba.
“Si estas empresas se ponen de acuerdo para silenciar voces americanas o debilitar nuestro ejército con su ‘ética’ inventada, las investigaremos por colusión y abuso de posición dominante hasta que no quede nada de ellas”, dijo el mandatario a fines de febrero de este año.




