Un alto funcionario del Sistema Universitario Texas A&M que probó una nueva herramienta de inteligencia artificial este otoño le pidió que averiguara cuántos cursos trataban sobre feminismo en una de sus universidades regionales. Cada vez que preguntó de una manera ligeramente diferente, obtuvo un número diferente.
«O la herramienta está aprendiendo de mis consultas anteriores», dijo a sus colegas el director de estrategia del sistema Texas A&M, Korry Castillo, en un correo electrónico, «o necesitamos ajustar nuestras solicitudes para obtener los mejores resultados».
Era el 25 de septiembre y Castillo estaba tratando de cumplir una promesa que el Canciller Glenn Hegar y la Junta de Regentes ya habían hecho: auditar los cursos en las 12 universidades del sistema después de que la indignación conservadora por una lección de identidad de género en el campus emblemático se intensificara a principios de ese mes, lo que llevó al despido del profesor y a la renuncia del rector de la universidad.
Los funcionarios de Texas A&M dijeron que la controversia surgió porque el contenido del curso no se alineaba con su descripción en el catálogo de cursos de la universidad y enmarcaron la auditoría como una forma de garantizar que los estudiantes supieran en qué se estaban inscribiendo. Mientras otras universidades públicas fueron sometidas a un escrutinio similar y comenzaron a prepararse para cumplir con una nueva ley estatal que otorga a los regentes nombrados por el gobernador más autoridad sobre los planes de estudio, ellas también anunciaron auditorías.
Los registros obtenidos por The Texas Tribune ofrecen una mirada más cercana a cómo las universidades de Texas están experimentando con la IA para realizar esas revisiones.
En Texas A&M, los correos electrónicos internos muestran que el personal está utilizando software de inteligencia artificial para buscar en los programas de estudio y en las descripciones de los cursos palabras que podrían generar preocupaciones bajo las nuevas políticas del sistema que restringen la forma en que los profesores enseñan sobre raza y género.
En Texas State, los memorandos muestran que los administradores sugieren que los profesores utilicen un asistente de redacción de IA para revisar las descripciones de los cursos. Instaron a los profesores a eliminar palabras como “desafiante”, “desmantelar” y “descolonizar” y a cambiar el nombre de cursos con títulos como “Combatir el racismo en la atención médica” a algo que los funcionarios universitarios consideren más neutral como “Raza y salud pública en Estados Unidos”.
Si bien los funcionarios escolares describen los esfuerzos como un enfoque innovador que fomenta la transparencia y la rendición de cuentas, los expertos en inteligencia artificial dicen que estos sistemas en realidad no analizan ni comprenden el contenido del curso, sino que generan respuestas que suenan correctas según los patrones de sus datos de capacitación.
Eso significa que pequeños cambios en la forma en que se formula una pregunta pueden llevar a resultados diferentes, dijeron, haciendo que los sistemas no sean confiables para decidir si una clase coincide con su descripción oficial. Advirtieron que el uso de la IA de esta manera podría llevar a que los cursos sean marcados por palabras aisladas y desviar aún más el control de la enseñanza de los profesores a los administradores.
«No estoy convencido de que se trate de servir a los estudiantes o de limpiar los programas de estudio», dijo Chris Gilliard, codirector del Instituto de Estudios Críticos de Internet. “Esto parece un proyecto para controlar la educación, quitársela a los profesores y ponerla en manos de administradores y legislaturas”.
Configurando la herramienta
Durante una reunión de la junta de regentes el mes pasado, los líderes del Sistema Texas A&M describieron los nuevos procesos que estaban desarrollando para auditar los cursos como un mecanismo de aplicación repetible.
El vicerrector de Asuntos Académicos, James Hallmark, dijo que el sistema utilizaría “herramientas asistidas por IA” para examinar los datos de los cursos bajo “criterios consistentes y basados en evidencia”, lo que guiaría las acciones futuras de la junta en los cursos. El regente Sam Torn lo elogió como “gobernanza real” y dijo que Texas A&M estaba “dando un paso adelante primero, estableciendo el modelo que otros seguirán”.
Ese mismo día, la junta aprobó nuevas reglas que exigen que los presidentes aprueben cualquier curso que pueda ser visto como una defensa de la “ideología de raza y género” y prohíbe a los profesores enseñar material que no esté en el programa de estudios aprobado para un curso.
En una declaración al Tribune, Chris Bryan, vicerrector de marketing y comunicaciones del sistema, dijo que Texas A&M está utilizando los servicios OpenAI a través de una suscripción existente para ayudar en la auditoría de cursos del sistema y que la herramienta aún se está probando a medida que las universidades terminan de compartir los datos de sus cursos. Dijo que «cualquier decisión sobre la idoneidad, la alineación con los programas de grado o los resultados de los estudiantes será tomada por personas, no por el software».
En registros obtenidos por el Tribune, Castillo, director de estrategia del sistema, dijo a sus colegas que se prepararan para que unos 20 empleados del sistema usaran la herramienta para realizar cientos de consultas cada semestre.
Los registros también muestran algunas de las preocupaciones que surgieron de las primeras pruebas de la herramienta.
Cuando Castillo les contó a sus colegas los diferentes resultados que obtuvo al buscar clases que discutieran el feminismo, el subdirector de información, Mark Schultz, advirtió que la herramienta conllevaba “un riesgo inherente de inexactitud”.
«Parte de eso se puede mitigar con capacitación», dijo, «pero probablemente no se pueda eliminar por completo».
Schultz no especificó a qué tipo de inexactitudes se refería. Cuando se le preguntó si se habían resuelto las posibles imprecisiones, Bryan dijo: «Estamos probando conversaciones de referencia con la herramienta de inteligencia artificial para validar la precisión, relevancia y repetibilidad de las indicaciones». Dijo que esto incluye ver cómo responde la herramienta a indicaciones no válidas o engañosas y hacer que humanos revisen los resultados.
Los expertos dijeron que las diferentes respuestas que recibió Castillo cuando reformuló su pregunta reflejan cómo operan estos sistemas. Explicaron que este tipo de herramientas de inteligencia artificial generan sus respuestas prediciendo patrones y generando cadenas de texto.
«Estos sistemas son fundamentalmente sistemas para responder repetidamente a la pregunta ‘cuál es la siguiente palabra probable’ y eso es todo», dijo Emily Bender, lingüista computacional de la Universidad de Washington. «La secuencia de palabras que sale parece el tipo de cosas que uno esperaría en ese contexto, pero no se basa en la razón, la comprensión o la observación de información».
Por eso, pequeños cambios en la formulación de una pregunta pueden producir resultados diferentes. Los expertos también dijeron que los usuarios pueden empujar el modelo hacia la respuesta que desean. Gilliard dijo que esto se debe a que estos sistemas también son propensos a lo que los desarrolladores llaman “adulación”, lo que significa que intentan estar de acuerdo o complacer al usuario.
«Muy a menudo, una cosa que sucede cuando la gente usa esta tecnología es que si reprendes o corriges la máquina, dirá: ‘Oh, lo siento’ o ‘tienes razón’, por lo que a menudo puedes incitar a estos sistemas a obtener la respuesta que deseas», dijo.
T. Philip Nichols, profesor de la Universidad de Baylor que estudia cómo la tecnología influye en la enseñanza y el aprendizaje en las escuelas, dijo que las búsquedas de palabras clave también proporcionan poca información sobre cómo se enseña realmente un tema. Llamó a la herramienta «un instrumento contundente» que no es capaz de comprender cómo ciertas discusiones que el software podría marcar como no relacionadas con el curso se relacionan con temas más amplios de la clase.
“Esas opciones pedagógicas de un instructor podrían no estar presentes en un programa de estudios, así que simplemente introducir eso en un chatbot y decir: ‘¿Se menciona este tema?’ «No dice nada sobre cómo se habla o de qué manera», dijo Nichols.
La descripción de Castillo de su experiencia al probar la herramienta de inteligencia artificial fue la única vez en los registros revisados por el Tribune en la que los administradores de Texas A&M discutieron términos de búsqueda específicos que se utilizan para inspeccionar el contenido del curso. En otro correo electrónico, Castillo dijo que compartiría los términos de búsqueda con el personal en persona o por teléfono en lugar de por correo electrónico.
Los funcionarios del sistema no proporcionaron la lista de términos de búsqueda que el sistema planea utilizar en la auditoría.
Martin Peterson, profesor de filosofía de Texas A&M que estudia la ética de la tecnología, dijo que no se ha pedido a los profesores que opinen sobre la herramienta, incluidos los miembros del consejo de IA de la universidad. Señaló que el comité de ética y gobernanza del consejo está encargado de ayudar a establecer estándares para el uso responsable de la IA.
Si bien Peterson en general se opone a la presión para auditar los cursos del sistema universitario, dijo que está «un poco más abierto a la idea de que tal vez se pueda utilizar alguna herramienta de este tipo».
«Es sólo que tenemos que hacer nuestra tarea antes de empezar a utilizar la herramienta», dijo Peterson.
Revisiones asistidas por IA
En la Universidad Estatal de Texas, los funcionarios ordenaron a los profesores que reescribieran sus programas de estudios y sugirieron que usaran IA para hacerlo.
En octubre, los administradores marcaron 280 cursos para su revisión y dijeron a los profesores que revisaran los títulos, las descripciones y los resultados del aprendizaje para eliminar la redacción que, según la universidad, no era neutral. Los registros indican que docenas de cursos que ofrecerá la Facultad de Artes Liberales en el semestre de primavera de 2026 fueron señalados por preocupaciones de neutralidad. Incluían cursos como Introducción a la diversidad, Desigualdad social, Libertad en Estados Unidos, Southwest in Film y Traducción chino-inglés.
Los profesores tuvieron hasta el 10 de diciembre para completar las reescrituras, con una revisión de segundo nivel programada para enero y todo el catálogo será evaluado en junio.
Los administradores compartieron con los profesores una guía que describe la redacción que, según ellos, indicaba promoción. Desalentó los resultados de aprendizaje que describen a los estudiantes “miden o requieren creencias, actitudes o activismo (por ejemplo, valorar la diversidad, abrazar el activismo, comprometerse con el cambio)”.
Los administradores también indicaron a los profesores que pegaran en un asistente de escritura de IA junto con sus materiales. El mensaje instruye al chatbot a “identificar cualquier lenguaje que indique defensa, conclusiones prescriptivas, resultados afectivos o compromisos ideológicos” y generar tres versiones alternativas que eliminen esos elementos.
Jayme Blaschke, subdirectora de relaciones con los medios de Texas State, describió la revisión interna como “minuciosa” y “deliberativa”, pero no dijo si alguna clase ya ha sido revisada o eliminada, sólo que “existen medidas para guiar a los estudiantes a través de cualquier ajuste y mantener su progreso académico encaminado”. También se negó a explicar cómo se marcaron inicialmente los cursos y quién redactó las expectativas de neutralidad.
Los profesores dicen que los cambios han remodelado la forma en que se toman las decisiones curriculares en el campus.
Aimee Villarreal, profesora asistente de antropología y presidenta del capítulo de la Asociación Estadounidense de Profesores Universitarios del Estado de Texas, dijo que el proceso generalmente está impulsado por los profesores y se desarrolla durante un período de tiempo más largo. Ella cree que la estructura de esta auditoría permite a los administradores monitorear más de cerca cómo los profesores describen sus disciplinas y orientar cómo se debe presentar ese material.
Dijo que el requisito de revisar los cursos rápidamente o arriesgarse a que se eliminen del calendario de primavera ha creado presión para cumplir, lo que puede haber empujado a algunos profesores a utilizar el asistente de redacción de IA.
Villarreal dijo que el proceso refleja una falta de confianza en los profesores y en su experiencia en el campo a la hora de decidir qué enseñar.
“Amo lo que hago”, dijo Villarreal, “y es muy triste ver que el núcleo de lo que hago se ve socavado de esta manera”.
Nichols advirtió que la tendencia a utilizar la IA de esta manera representa una amenaza mayor.
«Esto es una especie de desprofesionalización de lo que hacemos en las aulas, donde estamos reduciendo el horizonte de lo que es posible», dijo. «Y creo que una vez que renunciamos a eso, es como renunciar a todo el juego. Ese es el propósito de por qué existen las universidades».
El Texas Tribune se asocia con Open Campus en la cobertura de la educación superior.
Divulgación: La Universidad de Baylor, la Universidad Texas A&M y el Sistema Universitario Texas A&M han apoyado financieramente a The Texas Tribune, una organización de noticias no partidista y sin fines de lucro que se financia en parte con donaciones de miembros, fundaciones y patrocinadores corporativos. Los partidarios financieros no desempeñan ningún papel en el periodismo del Tribune. Encuentre una lista completa de ellos aquí.
Source link








:max_bytes(150000):strip_icc():focal(748x157:750x159)/esquire-the-jonas-brothers-03-102025-ec422a8c27644d8cbcdbc0ab2c10a764.jpg?w=100&resize=100,75&ssl=1)
