Línea superior

Cientos de figuras públicas (incluidos multimillonarios, ex funcionarios de la Casa Blanca, destacados investigadores de inteligencia artificial, premios Nobel, miembros de la familia real británica y figuras de los medios de comunicación de derecha) firmaron una petición pidiendo la prohibición del desarrollo de la “superinteligencia”, una forma avanzada de inteligencia artificial que se espera que supere la capacidad cognitiva humana.

Hechos clave

La petición, organizada por la organización sin fines de lucro Future of Life Institute, cuyo sitio web nombra a Elon Musk como asesor externo, pide una “prohibición del desarrollo de la superinteligencia”.

La petición dice que esta moratoria debería permanecer vigente hasta que haya un «amplio consenso científico de que se hará de forma segura y controlable» y una «fuerte aceptación pública».

El multimillonario Richard Branson, el cofundador de Apple, Steve Wozniak, y el duque y la duquesa de Sussex, Harry y Meghan, se encuentran entre las 850 figuras públicas que firmaron la petición hasta el miércoles por la mañana.

Las figuras de los medios de derecha Glenn Beck y Steve Bannon también figuraban como firmantes verificados, junto con el líder evangélico Johnnie Moore, quien anteriormente se desempeñó como asesor del presidente Donald Trump.

Varios investigadores y científicos destacados de la IA también firmaron la petición, entre ellos Yoshua Bengio y el premio Nobel Geoffrey Hinton, a quienes se ha referido como los «padrinos de la IA», y Stuart Russell de UC Berkeley, coautor de uno de los libros de texto más definitivos sobre IA.

La ex asesora de seguridad nacional de Estados Unidos, Susan Rice, y el ex presidente del Estado Mayor Conjunto, Michael Mullen, estuvieron entre los ex funcionarios gubernamentales destacados que firmaron la petición.

¿Qué han dicho los firmantes?

En una declaración que acompaña a su firma, Yoshua Bengio escribió: «Los sistemas de IA fronterizos podrían superar a la mayoría de los individuos en la mayoría de las tareas cognitivas en tan solo unos pocos años… Para avanzar con seguridad hacia la superinteligencia, debemos determinar científicamente cómo diseñar sistemas de IA que sean fundamentalmente incapaces de dañar a las personas, ya sea por desalineación o uso malicioso. También debemos asegurarnos de que el público tenga una voz mucho más fuerte en las decisiones que darán forma a nuestro futuro colectivo». Stuart Russell señaló que la petición no pedía una “prohibición o incluso una moratoria en el sentido habitual”, sino más bien una “propuesta para exigir medidas de seguridad adecuadas para una tecnología que, según sus desarrolladores, tiene una posibilidad significativa de causar la extinción humana”.

Tangente

En marzo de 2023, el Future of Life Institute publicó otra petición pidiendo una pausa en los “Experimentos gigantes de IA”, que fue firmada por Elon Musk y varios otros que también firmaron la petición del miércoles. Musk, que ahora dirige sus propias iniciativas de IA bajo su empresa xAI, no ha firmado la última petición y no está claro si se unirá. En su sitio web, la organización sin fines de lucro incluye a Musk como asesor externo y dice que el multimillonario ha «destacado los riesgos potenciales de la IA avanzada». El programa de investigación del instituto sobre IA comenzó en 2015, respaldado por una donación de 10 millones de dólares de Musk.

¿Qué sabemos sobre las encuestas públicas sobre la seguridad de la IA?

En septiembre, Gallup publicó una encuesta que mostraba que el 80% de los adultos estadounidenses creen que el gobierno debería mantener reglas para la seguridad de la IA y de los datos, incluso si esto desacelera la velocidad del desarrollo de la IA. Sólo el 9% de los adultos estadounidenses encuestados en la encuesta estaban a favor de acelerar el desarrollo de capacidades de IA, incluso si eso significaba reglas más laxas de seguridad de la IA y de los datos. El apoyo a las normas de seguridad de la IA es transversal a ambos partidos: el 88% de los demócratas y el 79% de los republicanos y los independientes están a favor. La propia encuesta del Future of Life Institute encontró que el 64% de los adultos estadounidenses cree que «la IA sobrehumana no debería desarrollarse hasta que se demuestre que es segura y controlable, o nunca debería desarrollarse».

Lectura adicional

OpenAI bloquea Sora Deepfakes de Martin Luther King después de ‘representaciones irrespetuosas’ (Forbes)



Source link