El director ejecutivo y cofundador de Anthropic Dario Amodei habla en el escenario durante la Cumbre Dealbook del New York Times 2025 en Jazz at Lincoln Center el 3 de diciembre de 2025 en la ciudad de Nueva York.

Miguel M. Santiago | Imágenes falsas

Un juez federal en San Francisco aceptó la solicitud de Anthropic de una orden judicial preliminar en su demanda contra la administración Trump.

La jueza Rita Lin emitió el fallo el jueves, dos días después de que los abogados de la startup de inteligencia artificial y el gobierno de Estados Unidos comparecieran ante el tribunal para una audiencia. Anthropic demandó a la administración para intentar revertir su inclusión en la lista negra del Pentágono y la directiva del presidente Donald Trump que prohíbe a las agencias federales utilizar sus modelos Claude.

Anthropic solicitó la orden judicial para detener esas acciones y evitar mayores daños monetarios y de reputación a medida que se desarrolla el caso. La orden prohíbe a la administración Trump implementar, aplicar o hacer cumplir la directiva del presidente y obstaculiza los esfuerzos del Pentágono para designar a Anthropic como una amenaza a la seguridad nacional de Estados Unidos.

«Castigar a Anthropic por llevar el escrutinio público a la posición contractual del gobierno es una clásica represalia ilegal de la Primera Enmienda», escribió Lin en la orden. Aún podrían faltar meses para un veredicto final en el caso.

Durante la audiencia del martes, Lin presionó a los abogados del gobierno sobre por qué Anthropic estaba en la lista negra. Su lenguaje en la orden del jueves fue aún más agudo.

«Nada en el estatuto que lo rige respalda la noción orwelliana de que una empresa estadounidense puede ser tildada de adversario potencial y saboteador de Estados Unidos por expresar desacuerdo con el gobierno», escribió.

Tras el fallo, Anthropic dijo que está «agradecido al tribunal por actuar con rapidez».

«Si bien este caso fue necesario para proteger a Anthropic, a nuestros clientes y a nuestros socios, nuestro enfoque sigue siendo trabajar productivamente con el gobierno para garantizar que todos los estadounidenses se beneficien de una IA segura y confiable», dijo la compañía en un comunicado.

La demanda de Anthropic a principios de este mes siguió a un par de semanas dramáticas en Washington DC, entre el Departamento de Defensa y una de las empresas privadas más valiosas del mundo.

En una publicación en X a finales de febrero, el secretario de Defensa, Pete Hegseth, declaró que Anthropic era el llamado riesgo de la cadena de suministro, lo que significa que el uso de la tecnología de la compañía supuestamente amenaza la seguridad nacional de Estados Unidos. A principios de marzo, el DOD notificó oficialmente a Anthropic sobre la designación mediante una carta.

Anthropic es la primera empresa estadounidense en ser nombrada públicamente un riesgo para la cadena de suministro, ya que la designación ha estado históricamente reservada para adversarios extranjeros. La etiqueta exige que los contratistas de Defensa, incluidos Amazon, Microsoft y Palantir, certifiquen que no utilizan a Claude en su trabajo con el ejército.

La administración Trump se basó en dos designaciones distintas (10 USC § 3252 y 41 USC § 4713) para justificar la acción, y deben ser impugnadas en dos tribunales separados. Por eso, Anthropic ha presentado otra demanda para una revisión formal de la determinación del Departamento de Defensa en la Corte de Apelaciones de Estados Unidos en Washington.

Poco antes de que Hegseth declarara a Anthropic un riesgo para la cadena de suministro, el presidente Donald Trump escribió una publicación en Truth Social ordenando a las agencias federales que «cesaran inmediatamente» todo uso de la tecnología de Anthropic. Dijo que habría un período de eliminación gradual de seis meses para agencias como el DOD.

«NOSOTROS decidiremos el destino de nuestro país, NO una empresa de inteligencia artificial de izquierda radical fuera de control dirigida por personas que no tienen idea de qué se trata el mundo real», escribió Trump.

Las acciones de la administración Trump sorprendieron a muchos funcionarios en Washington que habían llegado a admirar y confiar en la tecnología de Anthropic. La compañía fue la primera en implementar sus modelos en las redes clasificadas del Departamento de Defensa y fue defendida por su capacidad para integrarse con contratistas de Defensa existentes como Palantir.

Anthropic firmó un contrato de 200 millones de dólares con el Pentágono en julio, pero cuando la compañía comenzó a negociar el despliegue de Claude en la plataforma de inteligencia artificial GenAI.mil del Departamento de Defensa en septiembre, las conversaciones se estancaron.

El Departamento de Defensa quería que Anthropic otorgara al Pentágono acceso ilimitado a sus modelos para todos los fines legales, mientras que Anthropic quería garantías de que su tecnología no se utilizaría para armas totalmente autónomas o vigilancia masiva nacional.

Los dos no lograron llegar a un acuerdo y ahora la disputa se resolverá en los tribunales.

«Todos, incluido Anthropic, están de acuerdo en que el Departamento de [Defense] es libre de dejar de usar Claude y buscar un proveedor de IA más permisivo», dijo Lin durante la audiencia del martes. «No creo que de eso se trate este caso. Considero que la cuestión en este caso es muy diferente: si el gobierno violó la ley.

MIRAR: Audiencia antrópica vs. Pentágono

Elija CNBC como su fuente preferida en Google y no se pierda ni un momento del nombre más confiable en noticias de negocios.



Source link