Un agente de IA ordenó a un ingeniero que tomara medidas que expusieran una gran cantidad de datos confidenciales de Meta a algunos de sus empleados, en el último ejemplo de IA causando agitación en una gran empresa de tecnología.
La filtración, que Meta confirmó, ocurrió cuando un empleado pidió orientación sobre un problema de ingeniería en un foro interno. Un agente de IA respondió con una solución, que el empleado implementó, lo que provocó que una gran cantidad de datos confidenciales de los usuarios y de la empresa quedaran expuestos a sus ingenieros durante dos horas.
«No se ha manipulado incorrectamente ningún dato de usuario», afirmó un portavoz de Meta, y destacó que un humano también podría dar consejos erróneos. El incidente, reportado por primera vez por The Information, desencadenó una importante alerta de seguridad interna dentro de Meta, que según la compañía es una indicación de la seriedad con la que se toma la protección de datos.
Esta violación es uno de varios incidentes recientes de alto perfil causados por el uso cada vez mayor de agentes de inteligencia artificial dentro de las empresas tecnológicas estadounidenses. El mes pasado, un informe del Financial Times dijo que Amazon experimentó al menos dos interrupciones relacionadas con el despliegue de sus herramientas internas de inteligencia artificial.
Más de media docena de empleados de Amazon hablaron más tarde con The Guardian sobre el esfuerzo desordenado de la compañía para integrar la IA en todos los elementos de su trabajo, lo que, según dijeron, generó errores flagrantes, código descuidado y productividad reducida.
La tecnología que subyace a todos estos incidentes, la IA agente, ha evolucionado rápidamente en los últimos meses. En diciembre, los avances en la herramienta de codificación de inteligencia artificial de Anthropic, Claude Code, provocaron un revuelo generalizado sobre su capacidad para reservar entradas de teatro de forma autónoma, gestionar finanzas personales e incluso cultivar plantas.
Poco después se produjo la llegada de OpenClaw, un asistente personal de IA viral que se ejecutaba sobre agentes como ClaudeCode pero que podía operar de forma totalmente autónoma (intercambiando millones de dólares en criptomonedas, por ejemplo, o eliminando masivamente los correos electrónicos de los usuarios), lo que dio lugar a conversaciones embriagadoras sobre la llegada de AGI, o inteligencia artificial general, un término general para la IA que es capaz de reemplazar a los humanos en una amplia cantidad de tareas.
En las semanas siguientes, los mercados bursátiles se tambalearon por el temor de que los agentes de IA destruyeran las empresas de software, remodelaran la economía y reemplazaran a los trabajadores humanos.
Tarek Nseir, cofundador de una empresa de consultoría centrada en cómo las empresas utilizan la IA, dijo que estos incidentes mostraban que Meta y Amazon estaban en “fases experimentales” de implementación de IA agente.
«En realidad, no se están alejando de estas cosas y realmente están tomando una evaluación de riesgos adecuada. Si pones a un pasante junior en este tema, nunca le darías a ese pasante junior acceso a todos tus datos críticos de recursos humanos de gravedad uno», dijo.
«La vulnerabilidad habría sido muy, muy obvia para Meta en retrospectiva, si no en el momento. Y lo que puedo decir y diré es que Meta está experimentando a escala. Es Meta siendo audaz».
Jamieson O’Reilly, un especialista en seguridad que se centra en la creación de IA ofensiva, dijo que los agentes de IA introdujeron un cierto tipo de error que los humanos no introdujeron, y esto puede explicar el incidente en Meta.
Un ser humano conoce el “contexto” de una tarea: el conocimiento implícito de que no se debe, por ejemplo, prender fuego al sofá para calentar la habitación, o eliminar un archivo poco utilizado pero crucial, o realizar una acción que expondría los datos del usuario en el futuro.
Para los agentes de IA, esto es más complicado. Tienen “ventanas de contexto” –una especie de memoria de trabajo– en las que llevan instrucciones, pero éstas caducan, lo que lleva a errores.
«Un ingeniero humano que ha trabajado en algún lugar durante dos años camina con un sentido acumulado de lo que importa, qué se rompe a las 2 de la madrugada, cuál es el costo del tiempo de inactividad, qué sistemas afectan a los clientes. Ese contexto vive en ellos, en su memoria a largo plazo, incluso si no está en su mente», dijo O’Reilly.
«El agente, por otro lado, no tiene nada de eso a menos que lo incluyas explícitamente en el mensaje, e incluso entonces comienza a desvanecerse a menos que esté en los datos de entrenamiento».
Nseir dijo: «Inevitablemente habrá más errores».







