DEFENSA

Anthropic contra el Pentágono: quién manda sobre la IA militar

27 de febrero de 2026

Trump ordenó hoy a todas las agencias federales cesar "inmediatamente" el uso de tecnología de Anthropic y el Pentágono designó a la empresa como riesgo de cadena de suministro para la seguridad nacional, una categoría normalmente reservada para empresas vinculadas a adversarios extranjeros como China o Rusia. La medida prohíbe a cualquier contratista militar hacer negocios con Anthropic.

El conflicto lleva meses. Anthropic firmó un contrato de 200 millones de dólares con el Pentágono en julio del año pasado y es la única empresa de IA con acceso a las redes clasificadas del Departamento de Defensa, a través de una asociación con Palantir. El Pentágono le exigió que su modelo Claude estuviera disponible para "todos los fines legales" sin restricciones. Anthropic puso dos líneas rojas: que Claude no fuera usado para vigilancia masiva de ciudadanos estadounidenses ni para armas completamente autónomas. El CEO, Dario Amodei, dijo el jueves que "no podemos en buena conciencia acceder a su pedido."

Emil Michael, el CTO del Pentágono, llamó a Amodei "mentiroso" con "complejo de Dios" en X y argumentó que esos usos ya están prohibidos por ley, pero que el ejército no va a poner restricciones por escrito a pedido de una empresa privada. "En algún punto, tenés que confiar en que tu ejército va a hacer lo correcto," dijo. Pete Hegseth, el secretario de Defensa, describió la postura de Anthropic como una "clase magistral de arrogancia y traición."

Un dato relevante: xAI de Elon Musk ya firmó un contrato para trabajo clasificado bajo las mismas condiciones que Anthropic rechaza. OpenAI y Google están negociando términos similares, aunque Sam Altman dijo hoy que su empresa comparte las mismas "líneas rojas" que Anthropic. Empleados de Google, Microsoft y Amazon también pidieron a sus empresas que rechacen el uso irrestricto del Pentágono.

La designación como riesgo de cadena de suministro es más dañina que la pérdida del contrato en sí. Significa que cualquier empresa que trabaje con el ejército estadounidense tiene que demostrar que no usa nada de Anthropic, lo cual podría erosionar su base de clientes corporativos, muchos de los cuales tienen contratos con el gobierno. Para una empresa valuada en 380 mil millones de dólares que planea salir a bolsa este año, es un golpe serio. Pero la pregunta de fondo no es comercial sino estratégica: ¿puede una empresa de Silicon Valley decidir cómo se usa la IA en la guerra? La respuesta, como quedó claro hoy, es no.