Los daños a los niños, como la explotación sexual y los perjuicios a la salud mental, son inevitables en las plataformas de Meta, dijeron el director ejecutivo de la compañía, Mark Zuckerberg, y el líder de Instagram, Adam Mosseri, en declaraciones grabadas reproducidas en un juicio en Nuevo México el martes y miércoles.
«Simplemente creo que si estás sirviendo a miles de millones de personas, la desafortunada realidad es que un porcentaje muy pequeño de ellos serán delincuentes, y deberíamos trabajar tan duro como podamos para detener esa actividad», dijo Zuckerberg. «No creo que el estándar para nuestras plataformas sea asumir que alguna vez serán perfectas».
Las aplicaciones de Meta, que incluyen Facebook, Instagram y WhatsApp, se encuentran entre las más populares del mundo, cada una con 3 mil millones de usuarios activos mensuales.
El juicio ha enfrentado al gigante de las redes sociales contra el fiscal general de Nuevo México, quien alega que las plataformas de Meta anteponen las ganancias y la participación de los usuarios a la seguridad infantil. Raúl Torrez ha acusado a la empresa de permitir conscientemente que depredadores utilicen Facebook e Instagram para explotar a los niños. Meta cuestiona las acusaciones, citando cambios que ha introducido, incluidas cuentas para adolescentes con protecciones predeterminadas que debutaron en 2024. Se espera que el juicio, que comenzó a principios de febrero, dure unas siete semanas.
«Tenemos normas estrictas y de larga data contra la explotación infantil y hemos invertido miles de millones para combatirla, tanto a través de tecnología de detección proactiva como de funciones de seguridad diseñadas para prevenir daños», dijo un portavoz de Meta.
«Ofrecemos una transparencia líder en la industria, compartiendo periódicamente datos sobre cuánto contenido infractor eliminamos y cuánto perdemos. Ningún sistema puede ser perfecto y nunca hemos pretendido serlo».
A los miembros del jurado se les mostraron declaraciones grabadas de Zuckerberg y Mosseri filmadas entre marzo y julio del año pasado. El jurado también escuchó que familiares de empleados de Meta habían experimentado solicitación sexual en Instagram.
Los fiscales también presentaron evidencia de que la compañía estimó en 2020 que 500.000 niños recibían comunicaciones sexualmente inapropiadas en Instagram cada día, incluido el acicalamiento, en el que los adultos intentan entablar relaciones con menores con fines sexuales.
En un comunicado, un portavoz de Meta dijo que la tecnología que la compañía utilizó en ese momento era demasiado amplia y cautelosa y, como tal, se incluyeron en el recuento las interacciones que no eran inapropiadas.
La compañía identificó el algoritmo “Personas que quizás conozcas”, que recomienda cuentas con las que los usuarios se conectan, como el principal impulsor de estas interacciones, y la herramienta se utilizó para descubrir víctimas en el 79% de los casos identificados en 2018. En ese momento, alrededor del 30% de los adultos cuyas cuentas fueron deshabilitadas por apuntar a niños habían regresado a la plataforma y habían reanudado ese comportamiento, escuchó el tribunal.
Los miembros del jurado escucharon que Zuckerberg autorizó el cifrado de extremo a extremo para Facebook Messenger en 2023 a pesar de las advertencias de los grupos de seguridad infantil Thorn y el Centro Nacional para Niños Desaparecidos y Explotados (NCMEC) de que la medida podría representar riesgos para los niños. En una declaración grabada reproducida en el juicio, dijo que la privacidad que el cifrado ofrece a los usuarios era una cuestión más apremiante. El cifrado evita que cualquier persona que no sea el remitente y el destinatario previsto vea los mensajes al convertir texto e imágenes en cifrados ilegibles que se decodifican al recibirlos. El contenido no se almacena en los servidores de Meta.
Un portavoz de la empresa añadió que Meta aún puede revisar y tomar medidas sobre los mensajes cifrados si son denunciados por un usuario.
Los grupos de seguridad infantil y las autoridades han advertido que cifrar Messenger permite a los depredadores compartir imágenes de abuso sexual infantil sin ser detectados. Al principio del juicio, un agente de la ley testificó que los informes de material de abuso sexual infantil de la plataforma disminuyeron después del cifrado.
«Creo que lo que la gente quiere son servicios de mensajería cifrados de extremo a extremo», dijo Zuckerberg en una declaración grabada en marzo de 2025. «Realmente se preocupan por la privacidad».
Mosseri dijo en su declaración que la compañía ha «desarrollado tecnología que nos permite encontrar cuentas que han mostrado un comportamiento potencialmente sospechoso, por ejemplo, una cuenta de adulto que podría haber sido bloqueada por otro joven, y evitar que esas cuentas interactúen con las cuentas de los jóvenes».
«Utilizamos una variedad de señales para identificar a los adultos que han mostrado un comportamiento potencialmente sospechoso y evitamos recomendar estas cuentas a adolescentes a través de las funciones ‘Personas que quizás conozcas’ de Facebook y ‘Cuentas que debes seguir’ de Instagram», dijo un portavoz de Meta.
«En 2025, utilizamos estas señales para identificar más de 265 millones de cuentas de Facebook y más de 135 millones de cuentas de Instagram que habían mostrado comportamientos potencialmente sospechosos, y evitar de manera proactiva que encontraran, siguieran o interactuaran con adolescentes».
Una presentación interna discutida en el juicio afirmó que el equipo de seguridad y bienestar de Instagram no siempre impedía que se recomendaran cuentas de adolescentes a posibles infractores y viceversa. Una auditoría interna de diciembre de 2022 mostró que Meta seguía recomendando cuentas menores a algunos adultos.
En septiembre de 2024, Meta introdujo las cuentas para adolescentes, que colocan automáticamente a los usuarios menores de 18 años en configuraciones más estrictas en Instagram, Facebook y Messenger, lo que incluye hacer que los perfiles sean privados de forma predeterminada y limitar quién puede enviarles mensajes. Los investigadores han identificado lagunas en esas protecciones, incluida la exposición a vídeos dañinos a través de hashtags o recomendaciones y casos en los que las funciones de seguridad no funcionaron según lo previsto.
«Ciertamente quiero abordar cualquier problema que sea remotamente tan grave como algo como la solicitación sexual… Cualquier acción negativa que ocurra fuera de línea, y también hasta cierto punto, ocurre en línea», dijo Mosseri. «Estamos conectando a miles de millones de personas. Eso significará que sucederán cosas buenas y malas».







