Según se informa, el ejército estadounidense utilizó Claude, el modelo de inteligencia artificial de Anthropic, para informar su ataque a Irán a pesar de la decisión de Donald Trump, anunciada horas antes, de cortar todos los vínculos con la empresa y sus herramientas de inteligencia artificial.
El Wall Street Journal y Axios informaron sobre el uso de Claude durante el bombardeo masivo conjunto de Estados Unidos e Israel contra Irán que comenzó el sábado. Subraya la complejidad de que el ejército estadounidense retire poderosas herramientas de inteligencia artificial de sus misiones cuando la tecnología ya está intrincadamente integrada en las operaciones.
Según el Journal, el mando militar estadounidense utilizó las herramientas con fines de inteligencia, así como para ayudar a seleccionar objetivos y realizar simulaciones en el campo de batalla.
El viernes, apenas unas horas antes de que comenzara el ataque a Irán, Trump ordenó a todas las agencias federales que dejaran de utilizar a Claude de inmediato. Denunció a Anthropic on Truth Social como una “empresa de inteligencia artificial de izquierda radical dirigida por personas que no tienen idea de qué se trata el mundo real”.
La candente disputa fue desencadenada por el uso de Claude por parte del ejército estadounidense en su incursión para capturar al presidente de Venezuela, Nicolás Maduro, en enero. Anthropic se opuso, señalando sus condiciones de uso que no permiten que Claude se utilice con fines violentos, para desarrollar armas o para vigilancia.
Desde entonces, las relaciones entre Trump, el Pentágono y la empresa de IA han empeorado constantemente. En una extensa publicación en X el viernes, el secretario de Defensa, Pete Hegseth, acusó a Anthropic de “arrogancia y traición”, y agregó que “los combatientes de Estados Unidos nunca serán rehenes de los caprichos ideológicos de las grandes tecnologías”.
Hegseth exigió acceso total y sin restricciones a todos los modelos de IA de Anthropic para todos los fines legales.
Pero el secretario de Defensa también destacó la dificultad de separar rápidamente los sistemas militares de la herramienta de inteligencia artificial, dado lo ampliamente utilizados que se han vuelto. Dijo que Anthropic continuaría brindando servicios “por un período de no más de seis meses para permitir una transición fluida hacia un servicio mejor y más patriótico”.
Desde la ruptura con Anthropic, la empresa rival OpenAI ha llenado el hueco. Sam Altman, director ejecutivo de OpenAI, dijo que había llegado a un acuerdo con el Pentágono para el uso en su red clasificada de las herramientas de la compañía, que incluyen ChatGPT.







:max_bytes(150000):strip_icc():focal(965x409:967x411)/Cheryl-Burke-021325-5adf16dfd65046f98c3dca10b0dfabb4.jpg?w=100&resize=100,75&ssl=1)

