El mensaje de la Casa Blanca (y, a menudo, de las empresas tecnológicas y las escuelas públicas) es que la Figura 03 y su milicia de inteligencia artificial están irreversiblemente aquí y pertenecen a todas partes, y deberíamos sentirnos aterrorizados pero también “empoderados”, y que cuanto más tiempo y recursos les entreguemos, menos daño nos harán, con suerte, tal vez. El mes pasado, el Departamento de Educación de la ciudad de Nueva York comenzó a solicitar comentarios del público sobre sus directrices preliminares para el uso de la IA en las aulas K-12, que incluyen esta advertencia: «La cuestión no es si la IA pertenece a las escuelas. La cuestión es si construiremos colectivamente un sistema que gobierne la IA para servir a todos los estudiantes y a todas las partes interesadas».

Es todo un suplex retórico: abrir un debate declarando fuera de los límites su premisa central. Pero, como sabemos por los chatbots alucinantes, decir algo no significa que sea así. Innumerables estudios han sembrado dudas sobre el lugar de la IA en entornos pedagógicos. «La integración de los LLM en entornos de aprendizaje», advirtió un estudio del MIT realizado en 2025, «puede contribuir inadvertidamente a la atrofia cognitiva». (Los autores adjuntaron preguntas frecuentes al artículo con instrucciones sobre cómo discutir sus hallazgos: «Por favor, no utilice palabras como ‘estúpido’, ‘tonto’, ‘podredumbre cerebral’, ‘daño’, ‘daño’, ‘daño cerebral’, ‘pasividad’, ‘recorte’, etc.»).

Más recientemente, Semana de la Educación publicó resultados de un análisis de datos de unos mil trescientos distritos escolares de EE. UU., que encontró que aproximadamente una de cada cinco interacciones de los estudiantes con la IA generativa «involucraba trampas, autolesiones, intimidación y otros comportamientos problemáticos». Este mes, un estudio realizado por investigadores del MIT, Carnegie Mellon, UCLA y la Universidad de Oxford mostró que las personas que utilizaron LLM en resolución de problemas matemáticos de fracciones y luego perdieron el acceso a la asistencia de la IA «se desempeñan significativamente peor sin IA y tienen más probabilidades de darse por vencidos… Estos hallazgos son particularmente preocupantes porque la persistencia es fundamental para la adquisición de habilidades y es uno de los predictores más fuertes del aprendizaje a largo plazo». (Esta investigación aún no ha sido revisada por pares ni publicada en una revista científica). Y, a principios de año, la Brookings Institution publicó un “premortem sobre la IA y la educación infantil”, que combinaba el análisis de unos cuatrocientos estudios de investigación con cientos de entrevistas con estudiantes, padres, educadores y tecnólogos, y concluía que las herramientas de IA “socavan el desarrollo fundamental de los niños”.

Los principales argumentos en contra del uso de la IA generativa en la educación infantil son tres. La primera es que los LLM fomentan la descarga cognitiva antes de que los niños hayan realizado mucha carga cognitiva; es decir, si estas herramientas causan atrofia del pensamiento en los adultos, entonces difícilmente podemos sobrestimar los efectos potenciales en un cerebro que no ha desarrollado esos músculos cognitivos en primer lugar.

La segunda es que los chatbots, que imitan la intimidad emocional y tienden a la adulación, deforman la forma en que los niños forjan su identidad y sus relaciones. Alrededor de los diez u once años, los niños “de repente desarrollan relaciones y jerarquías sociales más sofisticadas”, me dijo Mitch Prinstein, profesor de psicología y neurociencia de la Universidad de Carolina del Norte en Chapel Hill. «Mucho de eso se debe al aumento de los receptores de oxitocina y dopamina. La oxitocina nos hace querer vincularnos con nuestros compañeros, y la dopamina nos hace sentir bien cuando recibimos comentarios positivos». Cuando un adulador LLM ingresa al chat, «se está secuestrando la tendencia biológica de querer comentarios de los pares», dijo Prinstein. Los preadolescentes hacen mucha revelación emocional mutua en el curso normal del crecimiento, continuó, «pero si van a un chatbot, se pierden la práctica de habilidades que usaremos por el resto de nuestras vidas».

La tercera queja contra el uso de la IA en las escuelas es que confunde fines y medios, privilegiando la ruta más eficiente hacia la respuesta correcta, la declaración de tesis más nítida o el dibujo más claro sobre el proceso más complicado y menos cuantificable de construir una persona que piensa y siente. «Estamos potencialmente socavando el pensamiento complejo, cambiando el desarrollo de la socialidad y confundiendo el objetivo de aprendizaje», me dijo Mary Helen Immordino-Yang, profesora de educación, psicología y neurociencia en la Universidad del Sur de California. «Estamos cortando el aprendizaje hasta las rodillas».

Incluso algunos defensores de la educación a favor de la IA admiten que la IA plantea importantes riesgos cognitivos y socioemocionales para los jóvenes. Amanda Bickerstaff es cofundadora y directora ejecutiva de la organización AI for Education, que brinda capacitación a educadores y estudiantes sobre alfabetización en inteligencia artificial generativa. «Los niños menores de diez años no deberían utilizar chatbots», me dijo Bickerstaff. «Estas herramientas requieren experiencia y habilidades de evaluación que incluso muchos adultos no tienen». La decisión de Google de hacer que Gemini esté disponible para todas las edades, dijo, marcó una de las pocas veces en su carrera en la que perdió el sueño por un asunto relacionado con el trabajo; recordó haber pensado: “Ellos saben muy claramente que esto va a ser malo para los niños y, aun así, lo van a hacer”. Bickerstaff continuó: “No creo que estén haciendo preguntas realmente básicas como: ‘Si un niño puede hacer inmediatamente un dibujo en lugar de dibujarlo, ¿qué pasará con su capacidad para pensar por sí mismo y dibujar?’ «



Source link