El Departamento de Defensa ha notificado oficialmente a altos dirigentes del ejército estadounidense que deben eliminar los productos de inteligencia artificial de Anthropic de sus sistemas en un plazo de 180 días, según un memorando interno obtenido por CBS News.

El memorando estaba fechado el 6 de marzo, un día después de que el Pentágono formalmente designado Antrópico un riesgo en la cadena de suministro. Se distribuyó a altos líderes el lunes, alegando que la IA de Anthropic «presenta un riesgo inaceptable para la cadena de suministro para su uso en todos [Department of War] sistemas y redes.»

El documento, firmado por la directora de información del Departamento de Defensa, Kirsten Davies, representa la última salva en una creciente disputa entre la Administración Trump y Anthropic. El aviso arroja luz sobre los amplios pasos que los comandantes militares deberán tomar para eliminar la IA antrópica de los principales sistemas de seguridad nacional, incluidos los de armas nucleares, defensa contra misiles balísticos y guerra cibernética.

También exigió que cualquier otra empresa que hiciera negocios con el Pentágono debía dejar de utilizar todos los productos Anthropic en trabajos relacionados con contratos del Departamento de Defensa en un plazo de 180 días.

En el memorando, Davies advirtió que los adversarios «pueden explotar las vulnerabilidades» de las operaciones diarias del Pentágono, y una posible explotación podría plantear «riesgos catastróficos potenciales para el combatiente». Davies dijo que ella es la única que puede conceder una excepción.

«Las exenciones sólo se considerarán para actividades de misión crítica que apoyen directamente las operaciones de seguridad nacional cuando no exista una alternativa viable, y el componente solicitante debe presentar un plan integral de mitigación de riesgos para su aprobación», escribió.

Un alto funcionario del Pentágono confirmó la autenticidad del memorando.

Anthropic no respondió de inmediato a una solicitud de comentarios.

Se dice que la acción del gobierno federal no tiene precedentes: es la primera vez que una empresa estadounidense ha sido designada como un riesgo para la cadena de suministro. Durante el primer mandato del presidente Trump, el gobierno tomó medidas similares para restringir empresas con sede en el extranjero como el gigante chino de telecomunicaciones Huawei.

Se produce después de un impasse sobre La petición de Antrópico por dos «líneas rojas» que impedirían explícitamente que el ejército estadounidense utilice su modelo Claude para llevar a cabo vigilancia masiva de estadounidenses o alimentar armas totalmente autónomas.

«Creemos que cruzar esas líneas es contrario a los valores estadounidenses, y queríamos defender los valores estadounidenses», dijo a CBS News el director ejecutivo de Anthropic, Dario Amodei.

El pentágono dicho anteriormente quería poder utilizar Claude para «todos los fines legales», sin restricciones, argumentando que los usos de la IA que preocupan a Anthropic ya están prohibidos. Actualmente, Claude está siendo utilizado por el ejército estadounidense en la guerra contra Irán, según Fuentes familiarizadas con el uso militar de la IA..

Anthropic es actualmente la única empresa de inteligencia artificial cuyos modelos se implementan en los sistemas clasificados del Pentágono. Después de que las conversaciones entre las dos partes fracasaran el mes pasado, uno de los mayores rivales de Anthropic, el creador de ChatGPT, OpenAI, dijo que había firmado un acuerdo con el Pentágono.

El lunes, antrópico presentó dos demandas contra el gobierno federalalegando que la decisión de los funcionarios del Pentágono de considerar a la empresa como un riesgo para la cadena de suministro equivalía a una represalia ilegal.

«La Constitución no permite que el gobierno ejerza su enorme poder para castigar a una empresa por su discurso protegido», afirmó la empresa en la demanda. «Ningún estatuto federal autoriza las acciones tomadas aquí».

La portavoz de la Casa Blanca, Liz Huston. respondió a la demanda al decir que el presidente Trump «nunca permitirá que una compañía de izquierda radical ponga en peligro nuestra seguridad nacional al dictar cómo opera el ejército más grande y poderoso del mundo».

Una fuente directamente familiarizada con las capacidades militares de Claude le dijo a CBS News que la principal tarea que Claude está llevando a cabo para el ejército es examinar grandes cantidades de informes de inteligencia, como sintetizar patrones, resumir hallazgos y sacar a la luz información relevante más rápido de lo que podría hacerlo un analista humano.

«El ejército ahora está procesando aproximadamente mil objetivos potenciales por día y atacando a la mayoría de ellos, con un tiempo de respuesta para el próximo ataque potencialmente inferior a cuatro horas», dijo el almirante retirado de la Armada Mark Montgomery, ahora director senior de la Fundación para la Defensa de las Democracias. «Un ser humano todavía está al tanto, pero la IA está haciendo el trabajo que solía llevar días de análisis, y lo está haciendo a una escala que ninguna campaña anterior ha igualado».



Source link