Nueva York
CNN

Meta está demandando al fabricante de la App Crusteri, una plataforma capaz de crear profundos profundos sexualmente explícitos, reclamación que eludió repetidamente las reglas de la compañía de redes sociales para comprar anuncios.

El traje es parte de lo que Meta (Meta) describió como un esfuerzo más amplio para tomar medidas enérgicas contra las llamadas aplicaciones «nudificantes», que permiten a los usuarios crear imágenes desnudas o sexualizadas de una foto de la cara de alguien, incluso sin su consentimiento, siguiendo las afirmaciones de que el gigante de las redes sociales no estaba abordando adecuadamente los anuncios para esos servicios en sus plataformas.

A partir de febrero, el fabricante de Crushai, también conocido como Crushmate y por varios otros nombres, había publicado más de 87,000 anuncios en meta plataformas que violaron sus reglas, según la queja meta presentada en el Tribunal de Distrito de Hong Kong el jueves.

Meta alega que el fabricante de aplicaciones, Joy Timeline HK Limited, violó sus reglas al crear una red de al menos 170 cuentas comerciales en Facebook o Instagram para comprar los anuncios. El fabricante de aplicaciones también supuestamente tenía más de 55 usuarios activos que administraron más de 135 páginas de Facebook donde se mostraron los anuncios. Los anuncios se dirigieron principalmente a los usuarios en los Estados Unidos, Canadá, Australia, Alemania y al Reino Unido.

«Todos los que crean una cuenta en Facebook o usan Facebook deben aceptar los meta términos de servicio», dice la queja.

Algunos de esos anuncios incluyeron imágenes sexualizadas o desnudas generadas por inteligencia artificial y fueron subtitulados con frases como «Subir una foto para desnudarse por un minuto» y «borrar cualquier ropa a las niñas», según la demanda.

CNN se ha comunicado con Joy Timeline HK Limited para hacer comentarios sobre la demanda.

Las plataformas tecnológicas enfrentan una presión creciente para hacer más para abordar los profundos profundos explícitos no consensuados, ya que la IA hace que sea más fácil que nunca crear tales imágenes. Objetivos de tales defectos profundos han incluido figuras prominentes como Taylor Swift y la representante Alexandria Ocasio-Cortez, así como a las niñas de secundaria en los Estados Unidos. La Ley Take It Down, que hace que sea ilegal que las personas compartan profundos en línea no consensuados y explícitos y requieren plataformas tecnológicas para eliminarlos rápidamente, se inició sesión el mes pasado.

Pero una serie de medios Los informes en los últimos meses sugieren que estos servicios de IA nudificantes han encontrado una audiencia al anunciar en las plataformas de Meta.

En enero, los informes del boletín tecnológico falsificaron y la salida 404Media descubrió que Crithei había publicado miles de anuncios en Instagram y Facebook y que el 90% del tráfico de la aplicación provenía de las plataformas de Meta. Eso es a pesar del hecho de que meta prohíbe los anuncios que contienen desnudidad y actividad sexual de adultos, y prohíbe compartir imágenes y contenido íntimos no consensuados que promueve la explotación sexual, el acoso escolar y el acoso.

Después de esos informes, el senador Dick Durbin, demócrata y miembro del ranking del Comité Judicial del Senado, escribió al CEO de Meta Mark Zuckerberg preguntando «cómo Meta permitió que esto sucediera y qué está haciendo Meta para abordar esta peligrosa tendencia».

A principios de este mes, CBS News informó que había identificado cientos de anuncios que promueven nudificadoras Aplicaciones en las plataformas de Meta, incluidos anuncios que presentaban imágenes sexualizadas de celebridades. Otros anuncios en las plataformas Señaló los sitios web que afirman animar imágenes de profundo de personas reales para que parezcan realizar actos sexuales, según el informe. En respuesta a ese informe, Meta dijo que había «eliminado estos anuncios, eliminó las páginas responsables de ejecutarlas y bloqueó permanentemente las URL asociadas con estas aplicaciones».

Meta dice que revisa los anuncios antes de que se ejecuten en sus plataformas, pero su queja indica que ha luchado por hacer cumplir sus reglas. Según la queja, algunos de los anuncios de Crushai anunciaron descaradamente su nudificante Capacidades con subtítulos como «¿alguna vez desearía poder borrar la ropa de alguien? Presentar nuestra tecnología revolucionaria» y «¡increíble! Este software puede borrar cualquier ropa».

Ahora, Meta dijo que su demanda contra el fabricante de Crushai tiene como objetivo evitar que elude aún más sus reglas para colocar anuncios en sus plataformas. Meta alega que ha perdido $ 289,000 debido a los costos de la investigación, respondiendo a los reguladores y aplicando sus reglas contra el fabricante de aplicaciones.

Cuando anunció la demanda el jueves, la compañía también dijo que había desarrollado una nueva tecnología para identificar este tipo de anuncios, incluso si los anuncios en sí no contenían desnudos. Los «equipos especializados» de Meta se asociaron con expertos externos para capacitar sus sistemas de moderación de contenido automatizado para detectar los términos, frases y emojis a menudo presentados en tales anuncios.

«Este es un espacio adversario en el que las personas detrás de él, que están principalmente motivadas financieramente, continúan evolucionando sus tácticas para evitar la detección», dijo la compañía en un comunicado. «Algunos usan imágenes benignas en sus anuncios para evitar ser atrapados por nuestra tecnología de detección de desnudos, mientras que otros rápidamente crean nuevos nombres de dominio para reemplazar los sitios web que bloqueamos».

Meta dijo que había comenzado a compartir información sobre aplicaciones nudificadoras que intentaban anunciar en sus sitios con otras plataformas tecnológicas a través de un programa llamado Lantern, dirigido por el grupo industrial The Tech Coalition. Los gigantes tecnológicos crearon Lantern en 2023 para compartir datos que podrían ayudarlos a combatir la explotación sexual infantil en línea.

El impulso para tomar medidas enérgicas contra las aplicaciones de Deepfake se produce después de que Meta marcó algunos de sus sistemas de eliminación de contenido automatizados, lo que provoca una reacción violenta de los expertos en seguridad en línea. Zuckerberg Anunció a principios de este año que esos sistemas se centrarían en verificar solo violaciones ilegales y de «alta severidad», como las relacionadas con el terrorismo, la explotación sexual infantil, las drogas, el fraude y las estafas. Los usuarios deben informar otras preocupaciones antes de que la empresa las evalúe.



Source link

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí