Mark Zuckerberg, director ejecutivo de Meta Platforms Inc., sale del Tribunal Superior de Los Ángeles, California, EE. UU., el miércoles 18 de febrero de 2026.

Kyle Grillot | Bloomberg | Imágenes falsas

Instagram dijo el jueves que alertará a los padres cuando los adolescentes busquen repetidamente términos de suicidio y autolesión como empresa matriz. Meta está bajo escrutinio en múltiples ensayos.

«Estas alertas están diseñadas para garantizar que los padres sepan si su adolescente intenta repetidamente buscar este contenido y para brindarles los recursos que necesitan para apoyar a su adolescente», dijo la compañía en un comunicado.

La función de supervisión parental se produce cuando la empresa de redes sociales enfrenta acusaciones de que el diseño y la funcionalidad de aplicaciones como Instagram fomentan efectos perjudiciales en la salud mental de los usuarios jóvenes.

Los expertos han descrito los juicios y casos legales relacionados que involucran a empresas como de google YouTube, TikTok y Quebrar como el momento de las «grandes tabacaleras» de la industria de las redes sociales, cuando los tribunales sopesan el supuesto daño de sus productos y sus supuestos esfuerzos por engañar al público sobre esos efectos adversos.

Las alertas de Instagram comenzarán a implementarse la próxima semana en EE. UU., Reino Unido, Australia y Canadá.

Los padres recibirán alertas si sus hijos adolescentes buscan repetidamente durante un «corto período de tiempo» «frases que promuevan el suicidio o la autolesión, frases que sugieran que un adolescente quiere hacerse daño a sí mismo y términos como ‘suicidio’ o ‘autolesión'», dijo la compañía en una publicación de blog.

La empresa lo llamó «el punto de partida correcto» mientras intenta encontrar el umbral adecuado para lo que constituye enviar una alerta. Meta dijo que los padres pueden recibir alertas que podrían no indicar un motivo real de preocupación, pero continuaría escuchando comentarios sobre la función.

Las alertas se entregarán a los padres por correo electrónico, mensaje de texto, WhatsApp o Instagram.

La función de alertas requiere que tanto los padres como los adolescentes se registren en las herramientas de supervisión parental de Instagram.

Los padres que reciban las alertas verán un mensaje que explica los hábitos de búsqueda de Instagram de sus hijos adolescentes y tendrán la opción de ver recursos adicionales para obtener ayuda, dijo la compañía.

Meta dijo que planea publicar eventualmente alertas parentales similares «para ciertas experiencias de IA» que tienen como objetivo notificar a los tutores «si un adolescente intenta participar en ciertos tipos de conversaciones relacionadas con el suicidio o la autolesión con nuestra IA».

Esas próximas alertas parentales relacionadas con la IA se producen después de la creciente preocupación de que los chatbots de IA de varias empresas de tecnología como OpenAI y Meta entablen conversaciones cuestionables y potencialmente dañinas relacionadas con la salud mental con los usuarios.

Meta ofrece sus propios chatbots de IA y está trabajando en un nuevo y potente modelo de IA con nombre en código Avocado que debutará a finales de este año, informó CNBC.

El director ejecutivo de Meta, Mark Zuckerberg, testificó la semana pasada en el Tribunal Superior de Los Ángeles como parte de un juicio en el que una demandante alega que se volvió adicta a aplicaciones de redes sociales como Instagram cuando era menor de edad.

Durante su testimonio, Zuckerberg reiteró la posición de Meta de que los propietarios de sistemas operativos móviles y tiendas de aplicaciones relacionadas como Manzana y Google son más adecuados para verificar las edades de los usuarios que los creadores de aplicaciones.

Con respecto a la verificación de la edad, la Comisión Federal de Comercio dijo el miércoles que no aplicará acciones relacionadas con la Regla de Protección de la Privacidad Infantil en Línea, o Regla COPPA, contra «ciertos operadores de sitios web y servicios en línea» que recopilan datos de usuarios que pueden usarse para informar tecnologías de verificación de edad.

La FTC dijo que la declaración de política es parte de una revisión más amplia de la regla COPPA en lo que respecta a la verificación de la edad.

Los documentos legales publicados la semana pasada como parte de un juicio separado relacionado con Meta en Nuevo México detallan mensajes internos de empleados que discuten cómo los esfuerzos de encriptación de la compañía podrían hacer que sea más difícil revelar informes de material de abuso sexual infantil a las autoridades.

Meta ha negado las acusaciones tanto en los casos de California como en Nuevo México.

La semana pasada, CNBC informó que la Asociación Nacional de Padres y Maestros no renovará su relación de financiación con Meta debido a los diversos desafíos legales que enfrenta la empresa con respecto a la seguridad digital de los niños.

Si tiene pensamientos suicidas o está angustiado, comuníquese con el Línea de vida para el suicidio y las crisis al 988 para obtener apoyo y asistencia de un consejero capacitado.

MIRAR: El peor resultado en la prueba de Meta LA son los cambios estructurales en las aplicaciones de la empresa.

El peor resultado en el ensayo de Meta LA son los cambios estructurales en sus aplicaciones: Kantrowitz de la gran tecnología



Source link