El regulador inicia una investigación sobre la plataforma de juegos estadounidense sobre los riesgos potenciales para los usuarios menores de edad en la UE.

El organismo holandés de vigilancia del consumidor ha iniciado una investigación sobre Roblox para ver si el popular sistema de juegos en línea está haciendo lo suficiente para proteger a los niños de la exposición a imágenes violentas y sexuales.

La Autoridad de Consumidores y Mercados de los Países Bajos (ACM) dijo el viernes que su investigación examinaría «los riesgos potenciales para los usuarios menores de edad en la UE» y probablemente duraría alrededor de un año.

Historias recomendadas

lista de 4 artículosfin de la lista

«La plataforma aparece regularmente en las noticias, por ejemplo, debido a preocupaciones sobre juegos violentos o sexualmente explícitos a los que están expuestos los menores», dijo la ACM en un comunicado.

Otras preocupaciones incluyen informes de adultos “mal intencionados” que se dirigen a niños en la plataforma y el uso de técnicas engañosas para fomentar las compras.

La ACM dijo que, tras recibir informes de tales acusaciones, «considera que esto es razón suficiente para iniciar una investigación formal sobre posibles violaciones de las reglas por parte de Roblox».

Nuevas medidas

Según la Ley de Servicios Digitales (DSA) de la Unión Europea, las plataformas deben tomar “medidas apropiadas y proporcionadas” para garantizar un alto nivel de seguridad y privacidad para los menores.

La ACM dijo que podría imponer una “instrucción vinculante, multa o sanción” a Roblox si concluye que se han infringido las reglas.

En 2024, la ACM impuso una multa de 1,1 millones de euros (1,2 millones de dólares) al fabricante de Fortnite, Epic Games, al considerar que niños vulnerables fueron explotados y presionados para realizar compras en la tienda de artículos del juego.

Un portavoz de Roblox dijo que la compañía está «fuertemente comprometida con el cumplimiento de la Ley de Servicios Digitales de la UE» y se refirió al anuncio de la plataforma de juegos en noviembre pasado de que requeriría verificación de edad mediante reconocimiento facial para limitar la comunicación entre niños y adultos.

«Esperamos poder brindarle a la ACM más claridad sobre las muchas políticas y salvaguardas que tenemos implementadas para proteger a los menores», dijo el portavoz.



Source link