Conclusiones clave
- El director ejecutivo de OpenAI, Sam Altman, advirtió recientemente que “algunas cosas realmente malas” vienen con la IA, especialmente deepfakes y otros “momentos realmente extraños o aterradores”.
- La nueva aplicación de video de OpenAI, Sora 2, rápidamente reclamó el primer lugar de la App Store de Apple en los días posteriores a su lanzamiento a fines del mes pasado, lo que muestra cuán rápido la tecnología de estilo deepfake se está generalizando.
- Altman dijo que espera que la sociedad aprenda a construir barreras protectoras antes de que la tecnología se vuelva aún más poderosa.
Sam Altman, director ejecutivo de OpenAI, la compañía detrás de ChatGPT, está brindando advertencias inesperadamente duras sobre los efectos de sus propios productos y otros similares.
«Espero que sucedan cosas realmente malas debido a la tecnología», dijo en una entrevista reciente en el podcast a16z de la firma de capital riesgo Andreessen Horowitz.
La advertencia no es hipotética. Los videos realizados por la nueva versión de Sora de OpenAI, lanzada a fines del mes pasado solo por invitación, se vieron rápidamente en las redes sociales mientras la aplicación ascendía rápidamente al número uno en la App Store de Apple (AAPL) en EE. UU. Las redes sociales pronto incluyeron deepfakes escritos por Sora que presentaban a Martin Luther King Jr. y otras figuras públicas, incluido el propio Altman, quien fue representado involucrado en diversas formas de actividad criminal. (Más tarde, OpenAI impidió que los usuarios hicieran videos de Martin Luther King Jr. en Sora.)
Pero si Altman realmente espera que «sucedan cosas realmente malas», ¿por qué su empresa parece ayudar a acelerar su llegada?
Por qué esto te importa
Los deepfakes generados por IA pueden ser indistinguibles de los vídeos reales, lo que puede dificultar la confianza en lo que se ve en las redes sociales. Es posible que pierda la confianza en las noticias o los videos de asesoramiento financiero que ve en las plataformas más rápido de lo que las empresas de tecnología y los reguladores pueden crear salvaguardias. Los estafadores ya están utilizando herramientas similares para crear vídeos falsos y utilizarlos con fines fraudulentos. Tenga cuidado y cuestione siempre el contenido que ve en las redes sociales antes de tomarlo como verdad.
Altman: debemos ‘coevolucionar’ con la IA
La razón fundamental de Altman para seguir adelante con esta publicación pública es que la sociedad necesita una prueba de manejo.
«Muy pronto el mundo tendrá que lidiar con increíbles modelos de video que pueden falsificar a cualquiera o mostrar lo que quieras», dijo en el podcast.
En lugar de perfeccionar la tecnología a puerta cerrada, sostiene que la sociedad y la IA deben «coevolucionar», que «no se puede simplemente dejarlo al final». Su teoría: dar a la gente una exposición temprana para que las comunidades puedan construir normas y barreras de seguridad antes de que estas herramientas se vuelvan aún más poderosas.
Lo que está en juego incluye perder lo que durante mucho tiempo hemos considerado como evidencia de la verdad: los videos de eventos han ayudado a cambiar la historia mundial. Pero la ventaja, según Altman, es que estaremos mejor preparados cuando lleguen herramientas aún más sofisticadas.
Advertencia
Los videos de negación del Holocausto creados con Sora 2 obtuvieron cientos de miles de me gusta en Instagram a los pocos días del lanzamiento de la aplicación, según la Coalición Global Contra el Odio y el Extremismo. La organización sostiene que las políticas de uso de OpenAI, que carecen de prohibiciones específicas contra el discurso de odio, han ayudado a que el contenido extremista florezca en línea.
Lo que dice Altman viene después
La advertencia de Altman no se refería sólo a los vídeos falsos. Se trataba de lo que sucede cuando muchos de nosotros subcontratamos nuestras decisiones a algoritmos que pocas personas entienden.
«Sigo pensando que habrá algunos momentos realmente extraños o aterradores», dijo, y enfatizó que el hecho de que la IA aún no haya causado un evento catastrófico «no significa que nunca lo hará».
«Miles de millones de personas hablando con el mismo cerebro» podrían crear «cosas extrañas a escala social», afirmó. Dicho de otra manera, podría dar lugar a reacciones en cadena inesperadas, provocando cambios consiguientes en la información, la política y la confianza comunitaria que se propagarán más rápidamente de lo que nadie puede controlar.
A pesar de estos amplios cambios que nos afectan a todos, Altman se opuso a las regulaciones para esta tecnología.
«La mayoría de las regulaciones probablemente tengan muchas desventajas», dijo. Aunque Altman también dijo que apoya «pruebas de seguridad muy cuidadosas» para lo que llamó modelos «extremadamente sobrehumanos».
«Creo que desarrollaremos algunas barreras a su alrededor como sociedad», dijo.
:max_bytes(150000):strip_icc()/samaltman-50c0a56781634e1d93357bef8407e310.jpg?w=1021&resize=1021,580&ssl=1)







