Un tribunal de EE.UU. rechaza el recurso de Anthropic contra el veto del Pentágono
Un tribunal en Estados Unidos ha decidido no aceptar la solicitud de la empresa Anthropic, especializada en inteligencia artificial, para evitar que se la califique como un riesgo para la cadena de suministro nacional. Esto es algo sin precedentes para una compañía estadounidense. La administración de Trump ya había clasificado a Anthropic como un riesgo tras negarse a dar acceso militar ilimitado a su asistente de IA, Claude.
La controversia comenzó en febrero de este año, cuando el gobierno ordenó a las agencias federales que dejaran de utilizar Claude por estas razones. La etiqueta impide que los contratistas del Pentágono puedan usar la tecnología de Anthropic en proyectos relacionados con el Departamento de Defensa. Entre las restricciones señaladas se encuentra la utilización de Claude en armas autónomas que operan sin control humano, así como en programas de vigilancia masiva dirigidos a la población estadounidense.
En 2025, Anthropic había logrado un importante contrato valorado en 200 millones de dólares para implementar su tecnología en sistemas militares. Después de este acuerdo, Claude fue integrado en redes gubernamentales classified y se utilizó en laboratorios nucleares, además de facilitar análisis de inteligencia para el Departamento de Defensa.
El revés para Anthropic llega en un contexto en el cual la compañía había ganado una demanda relacionada en un tribunal de San Francisco, lo que había llevado al Gobierno de Trump a reconsiderar la etiqueta de riesgo. Sin embargo, ahora, el tribunal de Apelaciones del Circuito del Distrito de Columbia ha manifestado que no hallaron razones para rechazar las decisiones del gobierno anterior, ya que no se había probado de manera clara el daño económico que podría sufrir Anthropic.
Aunque el tribunal de apelaciones ha decidido escuchar más argumentos sobre este caso en mayo, la compañía ha expresado su agradecimiento por la rapidez con la que se abordarán las cuestiones. Desde Anthropic han señalado su confianza en que los tribunales finalmente validarán su argumento de que estas designaciones como riesgo eran ilegales.
La situación de Anthropic refleja las crecientes tensiones entre el desarrollo de la inteligencia artificial y las preocupaciones de seguridad nacional. Con el avance tecnológico, cada vez se hace más importante encontrar un balance entre la innovación y la regulación. La administración actual y las futuras deberán decidir cómo gestionar estos desafíos, mientras que los actores del sector privado continúan explorando las posibilidades del acceso militar a sus tecnologías.
Discussion Questions
- ¿Cuáles son las implicaciones de considerar a una empresa de inteligencia artificial como un riesgo para la cadena de suministro nacional?
- ¿De qué manera puede la clasificación de Anthropic como riesgo afectar el desarrollo de la inteligencia artificial en Estados Unidos?
- ¿Cómo se puede encontrar un equilibrio entre la innovación tecnológica y las preocupaciones de seguridad nacional en el contexto actual?
- ¿Qué papel deberían jugar los tribunales y las agencias gubernamentales en la regulación de la inteligencia artificial y su uso militar?
- ¿Cuáles son las posibles consecuencias futuras para las empresas del sector tecnológico si enfrentan restricciones similares a las que ha experimentado Anthropic?