Vivienne Ming, exalumna de UC San Diego e investigadora de aprendizaje automático desde hace mucho tiempo, sostiene en su nuevo libro, «Robot-Proof», que el riesgo real de la inteligencia artificial no es solo el desplazamiento laboral: es que las personas usan la IA pasivamente y pierden las habilidades que las hacen valiosas.
Ming, un neurocientífico teórico, inventor y empresario que se graduó de la UCSD en 2000 con una licenciatura en ciencias cognitivas, ofrece un manual para convertirse en “a prueba de robots” mediante el uso de la IA con curiosidad, desafiándola y desarrollando las fortalezas humanas que la IA no puede replicar.
«Debemos tener cuidado de que lo que estamos construyendo no elimine automáticamente las capacidades que nos hacen humanos», dijo Ming, quien también tiene títulos avanzados en psicología de la Universidad Carnegie Mellon. Fundó Socos Labs, desarrollador de aplicaciones web con sede en Berkeley, en 2011 y es científica jefe de Possibility Sciences, un grupo que trabaja para reducir lo que llama la “brecha de posibilidades: la distancia entre lo que podemos imaginar y lo que nuestros sistemas pueden activar de manera confiable”.
A medida que las herramientas de inteligencia artificial se han convertido en parte de la vida diaria, muchos estadounidenses dicen estar más preocupados que emocionados. Y Ming está de acuerdo en que hay muchas razones por las que los humanos deberían tener cuidado con la IA.
Pero dice que una de sus mayores preocupaciones es que la industria del aprendizaje automático se está moviendo en la dirección equivocada, invirtiendo recursos en hacer que la IA sea más inteligente y autónoma mientras descuida el lado humano de la ecuación.
Aquí habla de su libro y de cómo las personas pueden trabajar con la IA de una manera que pueda servir mejor a la humanidad.
P. ¿En qué se diferencia la revolución de la IA de transformaciones anteriores impulsadas por la tecnología (como la Revolución Industrial, la revolución de los microprocesadores/computadoras personales y el auge de Internet) que rápidamente remodelaron la forma en que las personas viven y trabajan?
A. De hecho, tengo un capítulo completo titulado «Esto no es la Revolución Industrial». Existe esta vaga analogía que la gente busca: «Oh, la gente también se quejaba de las calculadoras», y por lo tanto todo esto es simplemente el mismo ciclo que se repite. Pero no es una equivalencia clara. Las calculadoras no te impedían pensar: dejabas de hacer cálculos de bajo nivel y luego hacías otras cosas con esos cálculos. Ese tipo de herramienta todavía deja activada tu cognición.
Lo que es diferente ahora es que los sistemas de agentes modernos lo harán felizmente todo. Y el peligro es que la gente empiece a desconectarse de una manera que realmente podamos medir. Si observamos estas tecnologías a lo largo del tiempo (impresión, computadoras, Internet), vemos cambios sutiles en la cognición.
Pero más recientemente, con el GPS y las transmisiones algorítmicas, esos cambios se están volviendo mensurables y, francamente, más preocupantes. La gente está cambiando su forma de pensar cuando utiliza estas herramientas de formas que me asustan.
Entonces, una gran diferencia es que la IA nos golpea justo en nuestro núcleo cognitivo. No se trata de automatizar la actividad física. Ni siquiera es la simple automatización de una tarea cognitiva de bajo nivel lo que resulta profundamente aburrido. Puede automatizar todo el proceso, y eso es históricamente nuevo. Y eso significa que tenemos que pensar mucho más en lo que automatizamos frente a lo que aumentamos.
P. Usted ha dicho que escribió este libro porque los debates actuales sobre políticas de IA a menudo pasan por alto lo que es mejor para las personas. ¿En qué nos estamos equivocando?
A. Por un lado, están los utópicos de la IA: la multitud que “agita la varita de la IA y todo se vuelve perfecto”. «Nunca más tendrás que trabajar. Nunca habrá cáncer». Es absurdo. Yo lo llamo la enfermedad de la imaginación: «Puedo imaginar un mundo en el que todo es perfecto, por lo tanto será perfecto». Y cuando a eso le sumamos billones de dólares de presión inversora, la cosa empeora aún más porque los humanos no pueden lidiar con ese tipo de presión.
Luego, por otro lado, está la historia distópica: «La IA nos va a destruir a todos, nos quitará todos los empleos, lo arruinará todo». Y he estado construyendo esto durante 30 años. Lo he usado para la diabetes de mi hijo. Lo he usado para refugiados. Trastorno bipolar. Depresión posparto. Depresión perimenopáusica. Construí cyborgs literales desde el principio, usando inteligencia artificial para ayudar a mejorar los implantes cocleares para que las personas pudieran escuchar el habla en medio del ruido. Así que tampoco creo en la distopía simplista.
El problema es que casi nadie habla de lo que creo que es el cuadro más importante. Si consideramos la IA como una herramienta cognitiva asombrosa, la pregunta es: “¿Cómo mejora a los seres humanos?” Y luego, “¿Qué implica eso para la educación, la política laboral, la infraestructura, todo?”
P. En el libro, usted describe experimentos que realizó y que fueron diseñados para encontrar qué tipo de personas usan la IA con mayor eficacia. ¿Qué descubriste?
A. Realizamos este experimento en el que pequeños grupos de estudiantes de UC Berkeley tuvieron una hora para hacer 10 predicciones sobre el futuro. Por ejemplo: ¿Cuál será el precio del petróleo dentro de seis meses? Los humanos son terribles en eso, como era de esperar. No somos buenos para hacer predicciones sobre cosas de las que no sabemos nada. El modelo de código abierto más pequeño que utilizamos fue mucho mejor que el mejor humano. Y cuanto más grande y sofisticado era el modelo, mejor le iba.
Luego analizamos lo que yo llamo inteligencia híbrida: lo que sucede cuando se juntan personas y máquinas. Y obtuvimos dos patrones muy diferentes. Un grupo, lo que llamamos «automatizadores», básicamente diría «Gemini, GPT, dame la respuesta y luego envíala». No están participando. Les hice un electroencefalograma, o EEG, a un par de ellos y los comparé con personas que razonaban por su cuenta, o incluso simplemente usando Google. Hubo una actividad cognitiva dramáticamente menor.
Pero luego hubo otro grupo (alrededor del 10% de los estudiantes de Berkeley) que se convirtieron en lo que llamamos “cyborgs”. Ellos respondían: «¿Qué pasa con esto?» La IA diría «Pero los datos…» y ellos dirían «Está bien, eso no, ¿qué pasa con esto?»
Hay un ir y venir en el que exploran activamente por qué podrían estar equivocados. No simplemente aceptan la respuesta. A esos equipos de cyborg les fue mejor que a las mejores personas y a los mejores modelos. De hecho, tres estudiantes sin conocimientos previos obtuvieron resultados comparables a los de los mercados de predicción, como aquellos en los que decenas de miles de personas tienen dinero en juego. Eso es realmente emocionante.
El problema es que era un pequeño porcentaje. Lo que significa que no basta con decir que la IA mejora a las personas. Tenemos que preguntarnos: “¿Qué hace que exista el patrón cyborg y cómo podemos atraer a más personas hacia él?”
P. Usted ha dicho que no importa mucho qué modelo de IA utilice la gente, sólo importa cómo lo utilicen. ¿Qué implica esto para la industria de la IA, que está gastando toneladas de capital para construir mejores modelos?
A. Eso es un gran problema, porque en este momento, casi todas las empresas importantes están optimizando la autonomía.
Lea las tarjetas modelo, lea los puntos de referencia: se trata de lo que el sistema puede hacer por sí solo. La IA optimizada sólo para la autonomía es un callejón sin salida para la humanidad. Si el objetivo es mejorar a las personas, entonces deberíamos construir sistemas diseñados en torno a la fricción productiva: sistemas que te desafíen, que te ayuden a explorar, que no te den simplemente la respuesta. Pero esos sistemas obtendrían peores resultados en los puntos de referencia de autonomía por definición, porque no están haciendo el trabajo solos.
Entonces, desde el punto de vista de la industria, estamos midiendo algo incorrecto. Estamos avanzando hacia el estado final equivocado. Y estamos dejando el caso de uso más valioso, el que realmente mejora la capacidad humana, subdesarrollado.
P. Ha dicho que su mayor temor no es una adquisición de ciencia ficción, sino un futuro en el que la gente dependa demasiado pasivamente de la IA. ¿Puedes explicarlo?
A. El deterioro cognitivo es un fenómeno a largo plazo. No es como «Dios mío, mi hijo le pidió una respuesta a la IA y ahora está condenado». Esto se parece más a una cuestión de estilo de vida. Y no está mal que a veces la gente use herramientas de manera superficial; no evolucionamos para ser profundos todo el tiempo. Eso sería agotador.
La preocupación es qué sucede cuando el uso superficial se convierte en el predeterminado y hay muy poca participación cognitiva. En nuestro experimento, los «automatizadores» básicamente utilizaban la IA como sustituto. Recibirían una respuesta y la enviarían.
Y también se ve fuera del laboratorio: gente desplazándose, gente consumiendo resultados, sin preguntarse realmente «¿Por qué creo esto? ¿Qué falta? ¿Cuál es la alternativa?».
Entonces, ¿cómo se ve el deterioro cognitivo? Puede parecer una desconexión. Puede parecer como perder el hábito de luchar con la incertidumbre. Puede parecer que te vuelves menos capaz (o menos dispuesto) a controlar tu propio pensamiento. Con el tiempo, eso es una pérdida real.
P. ¿Cómo sería utilizar la IA de manera constructiva, convertirse en un “cyborg” o un ser humano impulsado por la IA en lugar de un “automatizador”, alguien que depende demasiado de la IA, lo que conduce a un deterioro cognitivo?
A. La clave es que sólo cuando los humanos y las máquinas trabajan fundamentalmente juntos (donde el humano desafía a la IA y la IA desafía al humano) se obtiene la dinámica que produce mejores resultados que cualquiera de los dos por separado.
Probamos una intervención simple: ajustamos un pequeño modelo de código abierto para que no diera respuestas. En cambio, haría preguntas y presionaría a los estudiantes. Los estudiantes lo odiaron. Dijeron: «¡Deja de ser Sócrates, solo dime el precio del petróleo!».
Pero el doble de ellos cambiaron al modo cyborg y lograron un rendimiento sobrehumano. Ésa es la pista: el objetivo no es la comodidad. El objetivo es la fricción productiva. Utilice la IA para desafiarlo, no solo para recompensar su primer pensamiento.
Un ejemplo práctico es lo que yo llamo el «mensaje de Nemesis». Lo usé mientras escribía. No dejé que la IA escribiera capítulos. Escribí el capítulo y luego dije algo como «Tú eres mi némesis, mi enemigo de toda la vida. Has encontrado todos los errores que he cometido. Aquí está el borrador. Dime por qué me equivoco, en detalle y cómo mejorarlo».
Luego puedes darle la vuelta: «Ahora eres un lector aburrido. Dime por qué esto no te importa y cómo conectarlo sin simplificarlo».
Esa es una relación con la herramienta muy diferente a la de «Dame la respuesta».
P. ¿Qué consejo daría a los padres y profesores que quieran preparar a los niños para prosperar en la era de la IA?
A. Una cosa que digo en el libro es que nuestro sistema educativo se ha construido en gran medida en torno a problemas bien planteados: problemas en los que ya entendemos la pregunta y conocemos las respuestas, o la fórmula que lleva a la respuesta. Luego calificamos a los niños según qué tan bien reproducen las respuestas “correctas”.
Ya no necesito eso. Tengo todas esas respuestas gratis en mi bolsillo: mejores, más baratas y más rápidas de lo que un humano puede darlas. Eso no significa que los niños no deban aprender los fundamentos; siguen siendo importantes. Pero todo el esfuerzo cambia. Lo que queda es nuestra capacidad de explorar lo desconocido: los problemas mal planteados. Para lograrlo, los niños deben estar dispuestos a equivocarse a veces. Necesitan curiosidad. Necesitan humildad intelectual: la capacidad de escuchar “estás equivocado” y responder con interés en lugar de colapsar. Necesitan tomar perspectiva: comprender lo que piensan otras personas y lo que otras personas piensan sobre lo que usted piensa.
Parte de esto es el desarrollo en la vida temprana: conversaciones ricas, lectura, ambientes enriquecidos, experiencias diversas: todo esto respalda la memoria de trabajo y las bases de la inteligencia fluida. Pero después de eso, gran parte se convierte en mantenimiento y práctica. Y puedes hacer cosas muy concretas. Recompensa las preguntas, no solo las respuestas. Construya una cultura en la que se valore preguntar. Fomentar el fracaso productivo.
Pruebe con un “diario de fracasos”, no para glorificar el fracaso sino para vincular los errores con el aprendizaje y el progreso. Ayude a los niños a ver los errores como información. Luego, refuérzalo a diario: utiliza el GPS para desplazarte, pero no te rindas. Verifique la ruta y pregunte «¿Lo sé mejor?» “¿Por qué de esta manera?”
Mantén la comodidad y mantén tu cerebro en línea.
— El personal de La Jolla Light contribuyó a este artículo, que apareció por primera vez en el boletín UC San Diego Today de UCSD Communications. Se republica aquí con permiso. ♦









