El 9 de abril, el Tribunal de Apelaciones Federal del Distrito de Columbia, EE. UU., decidió mantener la marca de “riesgo para la cadena de suministro” del Departamento de Defensa contra Anthropic, rechazando su solicitud de suspensión de la ejecución; esta batalla legal, aún sin resolverse por completo, gira en torno a las líneas rojas éticas de la IA y a las definiciones de seguridad nacional.
(Antecedentes: el juez apoyó a Anthropic y prohibió al Departamento de Defensa castigar a Claude con la “etiqueta de riesgo para la cadena de suministro”)
(Aclaración de contexto: ¿Qué es Claude? Análisis completo de costos, funciones, Claude Code, Cowork — la guía más detallada de Anthropic en 2026)
Índice del artículo
Toggle
El 9 de abril, el Tribunal de Apelaciones Federal del Distrito de Columbia desestimó la solicitud de suspensión de la ejecución presentada por el gigante de la IA Anthropic, determinando mantener la decisión del Departamento de Defensa de clasificarlo como “riesgo para la cadena de suministro”.
Los motivos del tribunal son directos: los intereses de seguridad nacional del gobierno al gestionar la cadena de suministro de la IA tienen prioridad sobre las pérdidas financieras que enfrenta Anthropic. Esta marca, que normalmente se usa para empresas de países hostiles o entidades potencialmente amenazantes, ahora recae sobre un unicornio local de IA de EE. UU., y su significado simbólico es evidente.
El incidente se originó en julio de 2025. Anthropic y el Pentágono firmaron un contrato de 200 millones de dólares para integrar el modelo de IA Claude de su cartera en el sistema inteligente Maven, con el fin de ayudar a ejecutar tareas de análisis de inteligencia y de identificación de objetivos.
Sin embargo, en septiembre de 2025, las negociaciones entre ambas partes se rompieron. Anthropic insistió en establecer dos líneas rojas éticas: rechazar usar a Claude en sistemas de armas totalmente automatizados y rechazar usarlo para la vigilancia interna. Estas dos posturas chocaron de manera fundamental con las expectativas de la administración de Trump, quien luego ordenó, a través de redes sociales, que las agencias federales dejaran de usar productos de Anthropic, y estableció un período de eliminación de 6 meses.
De finales de 2025 a principios de 2026, el Departamento de Defensa incluyó formalmente a Anthropic en la lista de riesgos para la cadena de suministro. Esta etiqueta cortó directamente la elegibilidad de Anthropic para participar en contratos de defensa del gobierno.
Actualmente, esta guerra legal presenta resultados de decisiones contradictorias. Un tribunal federal de San Francisco, a fines de marzo, había aprobado una orden judicial preliminar que permitía a Anthropic seguir colaborando con organismos gubernamentales no relacionados con la defensa; pero el fallo del 9 de abril del Tribunal de Apelaciones Federal del Distrito de Columbia, por su parte, reforzó la postura de veto del Departamento de Defensa, negándose a otorgar cualquier margen de suspensión.
Esto significa que Anthropic se encuentra actualmente en un incómodo vacío legal: puede colaborar con algunas unidades del gobierno, pero queda excluida de los contratos de defensa. Anthropic sostiene que este caso constituye una represalia política y que viola las garantías constitucionales, y afirma que presentará recursos de apelación de manera continua. La aceleración del calendario de juicio se convertirá en la clave para la siguiente etapa.
Sin embargo, según el informe de Electronic Engineering Times, aunque Anthropic sufre un golpe significativo en lo comercial y no puede participar en contratos de defensa de gran envergadura, su postura ética firme obtiene una respuesta positiva en el mercado de usuarios generales, atrayendo a más empresas y usuarios individuales que se preocupan por la seguridad de la IA.
El impacto de esta sentencia no se limita a una sola empresa, Anthropic. Revela una contradicción estructural más profunda: cuando el marco ético de los desarrolladores de IA entra en conflicto con las definiciones del gobierno sobre seguridad nacional, hacia dónde se inclina la balanza del sistema legal vigente ya tiene una respuesta preliminar. La decisión final de este caso proporcionará un significado de referencia profundo sobre cómo toda la industria tecnológica negociará los límites del uso de la IA con el gobierno.