Este artículo apareció en el boletín informativo One Story to Read Today. Regístrese aquí.

El viernes pasado, en el escenario de una importante cumbre sobre IA en la India, Sam Altman quiso abordar lo que llamó una crítica “injusta”. Un periodista de OpenAI le preguntó al CEO de OpenAI El expreso indio sobre los recursos naturales necesarios para entrenar y ejecutar modelos de IA generativa. Altman inmediatamente retrocedió. Los chatbots requieren mucha potencia, sí, pero ¿has pensado en todos los recursos que demandan los seres humanos a lo largo de nuestra historia evolutiva?

«También se necesita mucha energía para entrenar a un ser humano», dijo Altman ante un pabellón abarrotado. «Se necesitan como 20 años de vida y todos los alimentos que comes durante ese tiempo antes de volverte inteligente. Y no solo eso, fue necesaria la evolución muy generalizada de los cien mil millones de personas que alguna vez vivieron y aprendieron a no ser devorados por los depredadores y aprendieron a descubrir la ciencia y lo que sea para producirte, y luego tomaste lo que sea, ya sabes, tomaste».

Continuó: «La comparación justa es, si le haces una pregunta a ChatGPT, ¿cuánta energía se necesita una vez que su modelo está entrenado para responder esa pregunta, versus un humano? Y probablemente, la IA ya se ha puesto al día en términos de eficiencia energética, medida de esa manera».

Los comentarios de Altman son fáciles de diferenciar. La energía utilizada por el cerebro es significativamente menor que incluso los modelos de frontera eficientes para consultas simples, sin mencionar las computadoras portátiles y teléfonos inteligentes que la gente usa para impulsar los modelos de IA. Es cierto que las personas tienen que consumir sustento real antes de “volverse inteligentes”, aunque esto también es una reorientación útil por parte de Altman: la verdadera preocupación con la IA no son realmente los recursos que demanda, sino la cantidad que contribuye al cambio climático. El dióxido de carbono atmosférico se encuentra en niveles no vistos en millones de años; no ha sido impulsado por la evolución de los 117 mil millones de personas y todos los demás bichos que alguna vez existieron en el curso de la evolución, sino por la sociedad humana contemporánea y turbinas de combustión similares a las que OpenAI está instalando en sus centros de datos Stargate. Otros centros de datos también están construyendo plantas de energía privadas alimentadas con gas (que en conjunto probablemente serán capaces de generar suficiente electricidad y emitir tantas emisiones de gases de efecto invernadero como docenas de grandes ciudades estadounidenses) o extender la vida útil de las plantas de carbón. (OpenAI, que tiene una asociación corporativa con la parte comercial de esta revista, no respondió a una solicitud de comentarios cuando me acerqué para preguntar sobre los comentarios de Altman).

Pero lo realmente significativo de las palabras de Altman es que pensó en comparar los chatbots con los humanos. Esto sugiere que ve a las personas y a las máquinas en igualdad de condiciones. No falló en sus palabras; Esta es una posición común y calculada dentro de la industria de la IA. Altman hizo una declaración casi idéntica a Forbes India en la misma cumbre de AI. Y hace una semana, Dario Amodei, director ejecutivo de Anthropic y principal rival de Altman, hizo una analogía similar, comparando el entrenamiento de modelos de IA con la evolución humana y el aprendizaje del día a día. La mentalidad se traslada al desarrollo de productos. Anthropic está estudiando si su chatbot, Claude, es consciente o puede sentir “angustia”, y le permite a Claude interrumpir conversaciones “persistentemente dañinas o abusivas” en las que existen “riesgos para modelar el bienestar”, antropomorfizando explícitamente un programa que no come, bebe ni tiene voluntad propia.

Las empresas de IA están convencidas de que sus productos son realmente comparables a los humanos o de que se trata de un buen marketing. Ambas opciones son alarmantes. Una creencia genuina de que están construyendo un poder superior, tal vez incluso un dios (Altman, en la misma aparición, dijo que cree que la superinteligencia está a solo unos años de distancia) podría fácilmente justificar tratar a los humanos y al planeta como daños colaterales. Altman también dijo, en su respuesta a las preocupaciones sobre el consumo de energía, que el problema es real porque “el mundo ahora está usando tanta IA” y, por lo tanto, las sociedades deben “avanzar hacia la energía nuclear, o eólica y solar, muy rápidamente”. Otra opción sería que la industria de la IA esperara.

Si la comparación que hace Altman entre los chatbots y las personas es puramente una táctica de relaciones públicas, es profundamente misantrópica. Está hablando con inversores. La noción de que los laboratorios de IA están construyendo vida digital siempre ha sido conveniente para su mito, por supuesto, y se informa que OpenAI está en medio de una ronda de recaudación de fondos que valoraría a la compañía en más de 800 mil millones de dólares, casi tanto como Walmart.

Es posible que las empresas de tecnología realmente quieran desarrollar herramientas de inteligencia artificial para el beneficio de toda la humanidad, para hacerse eco de la misión fundacional de OpenAI, y crean genuinamente que necesitan recaudar cantidades de efectivo para hacerlo. Pero comparar la crianza de un niño (o, en todo caso, la evolución de un hombre sabio— al desarrollo de productos algorítmicos deja muy claro que la industria ha perdido contacto, si es que alguna vez lo tuvo, con lo que significa ser humano. “Formar a un ser humano” –es decir, vivir una vida– es luchar, aceptar la posibilidad del fracaso y, a veces, deambular simplemente en busca de maravillas y belleza. La IA generativa consiste en eliminar ese proceso y hacer que cualquier búsqueda sea lo más instantánea, eficiente y sencilla posible. Estas herramientas pueden servirnos. Pero ponerlos en el mismo plano que la vida orgánica es triste.



Source link