Un juez federal de California se puso del lado de Anthropic en su caso contra el Departamento de Defensa el jueves y ordenó una pausa temporal en las medidas punitivas del gobierno contra la empresa de inteligencia artificial.
La jueza Rita Lin aceptó la solicitud de Anthropic de una orden judicial temporal mientras el tribunal del distrito norte de California escucha el caso de la empresa. Anthropic argumentó que el Departamento de Defensa y Donald Trump violaron sus derechos de la primera enmienda al declarar a la empresa un riesgo para la cadena de suministro y ordenar a las agencias gubernamentales que dejaran de usar su tecnología.
El juez suspendió la orden durante una semana.
El enfrentamiento de meses entre Anthropic y el gobierno ha girado en torno a la negativa de la compañía a permitir que el departamento de defensa utilice su modelo Claude AI para armas letales totalmente autónomas o vigilancia masiva nacional. Anthropic presentó una demanda contra el gobierno a principios de este mes, que comenzó el martes con una audiencia sobre la orden judicial temporal.
El fallo del juez Lin encontró que el gobierno se extralimitó en su autoridad en sus intentos de castigar y coaccionar a Anthropic, afirmando que el hecho de que el Pentágono designe a la empresa de IA como un “riesgo para la cadena de suministro” es “probablemente contrario a la ley y arbitrario y caprichoso”.
«El Departamento de Guerra no proporciona ninguna base legítima para inferir de la franca insistencia de Anthropic en las restricciones de uso que podría convertirse en un saboteador», escribió Lin.
Durante la audiencia del martes, Lin interrogó a los abogados del gobierno sobre el motivo detrás de la designación de riesgo de la cadena de suministro cuando el Departamento de Defensa podría simplemente haber descartado a Anthropic como contratista.
«Parece un intento de paralizar a Anthropic», dijo Lin.
Los abogados del gobierno afirmaron que, aunque el secretario de Defensa, Pete Hegseth, había publicado en las redes sociales que ningún contratista que hiciera negocios con el ejército estadounidense podía trabajar con Anthropic, su declaración no tenía efecto legal y, por lo tanto, no crearía el daño irreparable que alegaba la demanda de la empresa. Cuando Lin presionó a los abogados del gobierno por qué Hegseth publicaría algo sin ninguna autoridad legal que lo respaldara, respondieron que no lo sabían.
Lin se mostró escéptico ante los argumentos del gobierno durante toda la audiencia y dijo que las acciones que el gobierno tomó contra Anthropic no parecían reflejar preocupaciones específicas de seguridad nacional.
Anthropic ha argumentado en su denuncia contra el gobierno, que presentó a principios de este mes, que la designación de riesgo de la cadena de suministro y otras acciones punitivas podrían costarle a la empresa cientos de millones, si no miles de millones de dólares.
«Estas acciones no tienen precedentes y son ilegales. La constitución no permite que el gobierno ejerza su enorme poder para castigar a una empresa por su discurso protegido», afirmó Anthropic en su denuncia.
La orden judicial tiene implicaciones para los intentos del gobierno de hacer que las agencias federales reemplacen a Claude con otras herramientas de inteligencia artificial, un proceso difícil dado lo profundamente que la tecnología de Anthropic se ha integrado en las operaciones gubernamentales. Según se informa, el Departamento de Defensa ha estado utilizando ampliamente a Claude para operaciones militares, incluida la selección de objetivos y el análisis de ataques con misiles en su guerra contra Irán.





