OpenAI dijo que está tomando medidas enérgicas contra el contenido no autorizado luego de las protestas por la capacidad de Sora 2 para replicar imágenes y material protegido por derechos de autor sin permiso.

Y las figuras públicas podrían tener que agradecerle al actor Bryan Cranston por eso.

Durante el lanzamiento del 30 de septiembre de Sora 2, la versión más nueva del modelo avanzado de texto a video de OpenAI, la compañía dijo que prohibiría a los usuarios replicar imágenes de personas reales sin que esa persona haya optado explícitamente por una función de «cameo».

A pesar de esta política declarada, videos de Cranston, mejor conocido por su papel de Walter White en «Breaking Bad», rápidamente comenzaron a aparecer en la aplicación Sora junto con videos generados por IA de otras celebridades, incluidas figuras fallecidas como Michael Jackson y personajes protegidos por derechos de autor como Ronald McDonald.

Posteriormente, Cranston planteó la cuestión a SAG-AFTRA, el sindicato que representa a más de 150.000 artistas de cine y televisión, lo que resultó en un esfuerzo de colaboración con OpenAI y varias agencias de talentos para «garantizar la protección de la voz y la imagen en Sora 2», dijeron las compañías en una declaración conjunta publicada en X el lunes.

El comunicado dice que OpenAI ha reforzado sus barreras de seguridad originales para garantizar que este tipo de contenido ya no se escape. El director ejecutivo de OpenAI, Sam Altman, señaló que la empresa «está profundamente comprometida con proteger a los artistas de la apropiación indebida de su voz y su imagen».

La noticia llega mientras los creativos de Hollywood continúan lidiando con los rápidos avances de la inteligencia artificial. Aunque muchos en Hollywood han adoptado en secreto las herramientas de inteligencia artificial en los últimos años, las tensiones entre los profesionales de la industria del entretenimiento y los desarrolladores de inteligencia artificial se han mantenido altas a medida que los artistas expresan su preocupación por la posibilidad de que dichas herramientas roben sus retratos y se apoderen de su trabajo.

El intento de SAG-AFTRA el año pasado de canalizar cierta compensación hacia los actores de voz mediante la firma de un acuerdo de licencia con una empresa de inteligencia artificial también enfrentó la reacción de algunos en la industria que se opusieron por completo a dicha cooperación.

Antes de firmar la declaración del lunes, la agencia de talentos CAA había criticado a OpenAI por «exposiciones[ing] nuestros clientes y su propiedad intelectual a un riesgo significativo” al permitir que los usuarios de Sora 2 generen videos que contengan propiedad intelectual protegida por derechos de autor, como representaciones de personajes animados y de ficción famosos.

Cranston también dijo en la publicación que había planteado sus preocupaciones con Sora 2 a SAG-AFTRA después de sentirse «profundamente preocupado no sólo por mí, sino por todos los artistas cuyo trabajo e identidad pueden ser mal utilizados de esta manera».

En las primeras semanas después del lanzamiento, videos de clips con marcas de agua de Sora que presentaban personajes con derechos de autor como Bob Esponja, Pikachu y Mario inundaron Internet. Antes del lanzamiento, The Wall Street Journal había informado que Sora 2 permitiría a los usuarios generar material protegido por derechos de autor a menos que los titulares de los derechos de autor optaran por no publicar su trabajo.

Ahora, sin embargo, las solicitudes para generar dichos clips en la aplicación Sora devuelven un mensaje de error que indica que el mensaje «puede violar nuestras barreras» con respecto a la «semejanza de terceros» o la «similitud con contenido de terceros».

OpenAI no respondió de inmediato a una solicitud de comentarios sobre si había cambiado su política sobre el contenido protegido por derechos de autor.

La declaración conjunta también expresa su apoyo a la Ley NO FAKES, que tiene como objetivo responsabilizar a las personas, empresas y plataformas por producir o albergar deepfakes no autorizados. El proyecto de ley, que fue presentado en el Senado en abril, no ha avanzado en el Congreso.

«Fuimos uno de los primeros partidarios de la Ley NO FAKES cuando se introdujo el año pasado, y siempre respaldaremos los derechos de los artistas», escribió Altman en el comunicado del lunes.

Mientras tanto, Altman se encuentra entre unas pocas figuras prominentes que han generado intriga en línea al adoptar deepfakes de ellos mismos creados por usuarios.

Mientras promocionaba las habilidades de Sora 2, Altman parecía ansioso por permitir que la gente generara videos de él sacando la cabeza de un inodoro, maullando con un traje de gato o incluso robando en una tienda Target, algo que generó preocupación adicional sobre la capacidad de Sora 2 para generar imágenes de vigilancia realistas pero falsas.

El boxeador y YouTuber Jake Paul también ha sido objeto de una serie de videos falsos que lo muestran declarando su homosexualidad, dando tutoriales de maquillaje o bailando con un traje de bailarina. Paul, un inversionista de OpenAI, se burló de los videos y continuó permitiendo que otros hicieran cameos con él en la aplicación Sora, y le dio crédito al equipo detrás de ella por «hacer que Internet vuelva a ser divertido».

El presidente de SAG-AFTRA, Sean Astin, elogió el lunes a OpenAI por este protocolo de suscripción voluntaria.

«Bryan Cranston es uno de los innumerables artistas cuya voz y semejanza están en peligro de apropiación indebida masiva por parte de la tecnología de replicación», dijo Astin en el comunicado. «Bryan hizo lo correcto al comunicarse con su sindicato y sus representantes profesionales para abordar el asunto. Este caso en particular tiene una resolución positiva».

Cranston también expresó optimismo en su declaración del lunes, diciendo que está «agradecido a OpenAI por su política y por mejorar sus barreras de seguridad, y espera que ellos y todas las empresas involucradas en este trabajo respeten nuestro derecho personal y profesional a gestionar la replicación de nuestra voz y semejanza».



Source link