OpenAI anunció el lunes en una declaración conjunta que trabajará con Bryan Cranston, SAG-AFTRA y otros sindicatos de actores para protegerse contra los deepfakes en su aplicación de creación de vídeos con inteligencia artificial Sora.
El actor de «Breaking Bad» y «Malcolm in the Middle» expresó su preocupación después de que aparecieran en la aplicación clips no autorizados generados por IA usando su voz y su imagen después del lanzamiento de Sora 2 a finales de septiembre, dijo el Screen Actors Guild-American Federation of Television and Radio Artists en una publicación en X.
«Agradezco a OpenAI por su política y por mejorar sus barreras de seguridad, y espero que ellos y todas las empresas involucradas en este trabajo respeten nuestro derecho personal y profesional a gestionar la replicación de nuestra voz y semejanza», dijo Cranston en un comunicado.
Junto con SAG-AFTRA, OpenAI dijo que colaborará con United Talent Agency, que representa a Cranston, la Asociación de Agentes de Talento y la Agencia de Artistas Creativos para fortalecer las barreras en torno a las generaciones de IA no aprobadas.
La CAA y la UTA criticaron previamente a OpenAI por el uso de materiales protegidos por derechos de autor y calificaron a Sora como un riesgo para sus clientes y la propiedad intelectual.
OpenAI tuvo que bloquear videos de Martin Luther King Jr. en Sora la semana pasada a pedido del patrimonio de King después de que los usuarios crearan «representaciones irrespetuosas» del líder de derechos civiles.
Zelda Williams, la hija del fallecido comediante Robin Williams, pidió a la gente que dejara de enviarle vídeos de su padre generados por IA poco después del lanzamiento de Sora 2.
El enfoque de OpenAI respecto de las restricciones de derechos de autor y otras cuestiones relacionadas con la semejanza ha evolucionado desde el lanzamiento de Sora 2 el 30 de septiembre.
El 3 de octubre, el director ejecutivo Sam Altman actualizó la política de exclusión voluntaria de Sora, que anteriormente permitía el uso de propiedad intelectual a menos que los estudios solicitaran específicamente que no se utilizara su material, para permitir a los titulares de derechos «un control más granular sobre la generación de personajes».
En el lanzamiento, Sora requirió una suscripción voluntaria para el uso de la voz y la imagen de un individuo, aunque OpenAI dijo que ahora también se compromete a «responder rápidamente a cualquier queja que pueda recibir».
La compañía reiteró su apoyo a la Ley NO FAKES, un proyecto de ley federal aprobado diseñado para proteger contra réplicas no autorizadas de la voz o la imagen visual de las personas generadas por IA.
«OpenAI está profundamente comprometido a proteger a los artistas de la apropiación indebida de su voz y su imagen», dijo Altman en un comunicado. «Fuimos uno de los primeros defensores de la Ley NO FAKES cuando se introdujo el año pasado, y siempre respaldaremos los derechos de los artistas intérpretes o ejecutantes».









