La construcción colectiva de las reglas para IA en las universidades
Estudiantes y profesores repartidos por universidades de Estados Unidos están tomando la iniciativa de crear, juntos y de forma colaborativa, las directrices que van a determinar cómo la inteligencia artificial puede y debe utilizarse dentro de las aulas de la educación superior. Más de tres años después del lanzamiento de ChatGPT, esta sigue siendo una cuestión sin respuesta definitiva, y la ausencia de políticas institucionales claras está empujando a la comunidad académica hacia una construcción que parte de abajo hacia arriba, naciendo directamente de quienes viven el día a día del aprendizaje.
Para dimensionar el panorama, cerca de 85% de los universitarios estadounidenses ya utilizan herramientas de IA en actividades académicas, según una encuesta realizada por Inside Higher Ed en colaboración con Generation Lab, llevada a cabo en julio. La cifra es alta, pero lo que realmente llama la atención es el sentimiento que acompaña este dato. Más de la mitad de esos estudiantes admite tener sentimientos encontrados respecto al uso de estas herramientas. Reconocen que la inteligencia artificial facilita diversas tareas del día a día académico, como hacer lluvia de ideas, estructurar trabajos y estudiar para exámenes, pero también perciben que la dependencia excesiva puede debilitar la profundidad de su propio razonamiento. Además, aproximadamente 19% de los estudiantes reportaron usar IA para escribir ensayos completos, un dato que enciende una alerta importante sobre los límites entre asistencia y sustitución del esfuerzo intelectual.
El profesor de inglés Dan Cryer, del Johnson County Community College, cerca de Kansas City, en Kansas, traduce este dilema con una analogía que se ha vuelto bastante conocida entre educadores: usar IA generativa para escribir un ensayo sería como llevar una carretilla elevadora al gimnasio 🏋️. Si el objetivo fuera solo mover pesas de un lado a otro, la máquina resolvería todo con eficiencia. Pero el propósito real de ir al gimnasio es desarrollar los músculos, y eso exige esfuerzo, repetición y, sobre todo, implicación personal. De la misma manera, el objetivo de una asignatura de escritura no es solo entregar un texto terminado, sino ejercitar la capacidad crítica, argumentativa y creativa del estudiante.
Cryer también destaca que la llegada de la IA generativa trajo un tipo nuevo de trabajo para profesores como él: intentar determinar si el trabajo entregado por un alumno es realmente suyo. Según el profesor, este problema se complica aún más por el hecho de que su college comunitario, al igual que muchas otras instituciones de educación superior en Estados Unidos, proporciona a los propios estudiantes acceso a herramientas de IA. Y no son solo los docentes quienes cargan con esta carga extra. Los estudiantes también necesitan lidiar con un desafío inédito: encontrar la línea que separa el uso responsable del uso irresponsable de estas tecnologías.
El papel de los profesores en la definición de límites
Tras dedicar un período sabático al estudio de la inteligencia artificial generativa, el profesor Cryer llegó a una conclusión personal: los educadores deberían usar herramientas de IA lo mínimo posible en sus prácticas de enseñanza. En su visión, uno de los principales propósitos de estas herramientas es justamente evitar que las personas necesiten pensar con profundidad, lo cual va en contra de lo que la educación debería promover.
Cryer cuenta que ahora dedica más tiempo a convencer a sus alumnos sobre el valor de invertir esfuerzo para convertirse en mejores escritores. Les explica a sus grupos que el objetivo de la formación académica está en el proceso, y no en el producto final, porque la sociedad no necesita más ensayos universitarios. Lo que la sociedad necesita, según el profesor, es que los estudiantes pasen por el proceso de escribir trabajos de investigación para que puedan convertirse en mejores pensadores, capaces de construir argumentos coherentes y diferenciar una fuente confiable de una dudosa. Si los alumnos dependen de la IA para hacer ese trabajo por ellos, afirma Cryer, pueden terminar siendo privados justamente de la educación por la cual se matricularon.
Mientras educadores como Cryer piden cautela y alertan sobre los riesgos de una adopción irreflexiva, otros profesores ven en la inteligencia artificial una aliada poderosa cuando el uso responsable se coloca en el centro de la conversación. Esta divergencia entre docentes, lejos de ser un problema, está demostrando ser productiva.
La visión de quienes apuestan por la IA como compañera de aprendizaje
En Charlotte, Carolina del Norte, la profesora Leslie Clement llegó a una conclusión bastante diferente a la de Cryer. Para ella, la IA generativa puede funcionar como una colaboradora poderosa capaz de enriquecer el aprendizaje de los estudiantes. Clement imparte inglés, español y estudios africanos en la Johnson C. Smith University, una universidad históricamente negra, y permite que sus alumnos usen IA para crear borradores de trabajos, obtener retroalimentación sobre ideas y comparar diferentes fuentes de información.
El enfoque de Clement va más allá del simple uso instrumental de la tecnología. Ella co-creó una asignatura llamada African Diaspora and AI, que examina cómo la inteligencia artificial impacta a personas de ascendencia africana alrededor del mundo. El curso aborda temas como la minería peligrosa de cobalto en la República Democrática del Congo, un componente esencial en las tecnologías de IA, además de discutir potenciales beneficios futuros de estas herramientas y las contribuciones de investigadores y científicos negros al campo.
La asignatura también explora el concepto de afrofuturismo, incentivando a los estudiantes a utilizar herramientas de IA para reimaginar sus propios futuros. Clement dice que su objetivo siempre fue fomentar el pensamiento crítico, ético e inclusivo, y que desea que sus alumnos apliquen esas habilidades al uso de las herramientas de IA. Quiere que los estudiantes no solo utilicen la tecnología para el bien, sino que también la cuestionen y la examinen críticamente.
Este enfoque descentralizado, en el que cada profesor define los límites para su propia asignatura, ha ganado fuerza porque reconoce algo importante: no existe una política única que funcione para todas las áreas del conocimiento. Un curso de ciencias de la computación puede beneficiarse enormemente del uso de asistentes de código basados en IA, mientras que una asignatura de filosofía o literatura puede exigir restricciones más estrictas para preservar el ejercicio de la argumentación original. El resultado es un mosaico de directrices que, aunque no es uniforme, refleja las necesidades reales de cada contexto de aprendizaje.
Estudiantes como protagonistas del uso responsable
Uno de los aspectos más interesantes de este movimiento es que los estudiantes no están simplemente siguiendo reglas creadas por otros. En diversas universidades, son los propios alumnos quienes están definiendo, en la práctica, cómo quieren interactuar con la inteligencia artificial durante su formación. Y los testimonios muestran que muchos están tomando decisiones bastante conscientes.
Cuando la IA funciona como tutora bajo demanda
Anjali Tatini, estudiante de 19 años que cursa doble grado en salud global y neurociencia en la Duke University, en Durham, Carolina del Norte, encontró maneras propias de usar la IA de forma productiva. El semestre pasado, cuando estaba confundida con algunos conceptos de una asignatura de biología, recurrió a Gemini, el chatbot de IA de Google, para pedir explicaciones.
Tatini cuenta que le preguntaba al chatbot sobre un concepto y le pedía que le explicara su significado. Si la respuesta venía en un nivel demasiado técnico, simplemente le pedía que la simplificara un poco, lo cual resultaba muy útil. En otras asignaturas, como química, usó IA para crear problemas prácticos y prepararse para exámenes. En una clase de marketing, la herramienta ayudó en la lluvia de ideas. En estadística, la IA le auxilió en la generación de líneas de código para análisis de datos.
Para Tatini, tener una especie de tutora bajo demanda es valioso porque no siempre puede encontrarse con sus profesores en persona. Entre trabajos, otras clases y actividades extracurriculares, no siempre queda tiempo para asistir a todos los horarios de atención. Tener algo que responde en su propio tiempo, de manera similar a como lo haría una persona, marca la diferencia en la apretada rutina de una estudiante de grado.
Pero Tatini traza una línea clara: ella nunca deja que la IA escriba por ella. Usa las herramientas para ayudar a estructurar y organizar ideas, pero la redacción final es enteramente suya. La estudiante explica que cuando presenta algo, quiere que sea algo de lo que pueda sentirse orgullosa de decir que es suyo. Nunca usaría IA para escribir algo porque simplemente no sonaría como ella 🎯.
La escritura como huella digital
Cerca de allí, en Chapel Hill, Hannah Elder, una estudiante de 21 años en su tercer año en la University of North Carolina, comparte una filosofía parecida. Elder es estudiante de pre-derecho y cursa una combinación de asignaturas que incluye políticas públicas y filosofía. Dice que usa IA generativa para revisar sus trabajos y verificar si están de acuerdo con las rúbricas de evaluación de los cursos.
Sin embargo, Elder afirma que jamás usaría la herramienta para escribir o generar ideas en su lugar. Para ella, aprender a formular sus propias ideas y creencias y comunicarlas a través de la escritura ha sido una de las partes más valiosas de toda la experiencia universitaria. Su preocupación es que, si los estudiantes pasan a depender de la IA para hacer eso por ellos, no van a aprender a pensar por cuenta propia.
Elder todavía toma sus apuntes en papel, porque cree profundamente que lo que escribes y lo que produces es como una huella digital para el mundo. Y siente que, de cierta forma, esa singularidad se está perdiendo con el avance de las herramientas de generación de texto.
A pesar de estas convicciones, Elder no cree que la solución sea prohibir la IA por completo. Reconoce que la tecnología inevitablemente formará parte de la experiencia universitaria y defiende que los educadores integren la instrucción sobre IA en los planes de estudio. La idea es que los estudiantes aprendan a ver la línea entre el uso beneficioso y el uso perjudicial. Si los profesores incorporan estas herramientas de forma responsable a la enseñanza, dice Elder, la IA pasará a ser vista menos como un atajo deshonesto y más como una realidad con la que es posible convivir de manera inteligente y productiva.
El caso de quien dejó de usar IA
No todos los estudiantes que probaron herramientas de IA siguieron usándolas. Aysa Tarana, recién graduada de la University of Minnesota Twin Cities, estaba en su primer año cuando se lanzó ChatGPT. Cuenta que empezó a usar el chatbot para pequeñas tareas, como sugerencias de temas para investigación. Pero con el tiempo, Tarana decidió dejar de usar la herramienta porque sentía que estaba tercerizando su propio pensamiento, y eso le causaba una sensación extraña e incómoda.
La experiencia de Tarana ilustra algo que muchos educadores observan: el uso de la IA en el ámbito académico no es una vía de sentido único. Algunos estudiantes experimentan, se dan cuenta de que la herramienta no encaja en el tipo de aprendizaje que buscan y optan por caminos más tradicionales. Esta diversidad de experiencias refuerza la importancia de no tratar a todos los alumnos como un bloque monolítico y de permitir que cada uno encuentre su propio equilibrio.
Transparencia y diálogo abierto como pilares
Otro aspecto relevante en este movimiento es la transparencia. Diversos profesores están adoptando la práctica de conversar abiertamente con sus grupos desde las primeras semanas de clase sobre lo que consideran aceptable o no en relación con la inteligencia artificial. Esta conversación franca ayuda a reducir la ansiedad de los estudiantes, que muchas veces no saben si están cruzando alguna línea ética al usar un chatbot para resolver dudas sobre un concepto o para revisar la gramática de un trabajo. Cuando las expectativas son claras desde el inicio, el ambiente se vuelve más colaborativo y menos punitivo, lo cual favorece el aprendizaje genuino.
Esta participación activa de los estudiantes también está generando un efecto colateral positivo: la alfabetización en inteligencia artificial. Al discutir límites, posibilidades y riesgos, los alumnos terminan entendiendo mejor cómo funcionan estas herramientas, cuáles son sus limitaciones y por qué eventualmente producen información incorrecta o sesgada. Este tipo de conocimiento es valioso porque transforma al estudiante de usuario pasivo en alguien que puede evaluar críticamente los resultados generados por una IA. Y esta habilidad va a ser cada vez más importante en el mercado laboral y en la vida cotidiana, independientemente del área profesional.
Un movimiento que puede inspirar a universidades latinoamericanas
El panorama que se está formando en la educación superior estadounidense puede servir de referencia importante para universidades latinoamericanas y de otros países que enfrentan dilemas similares. La lección más clara hasta ahora es que esperar por una regulación que venga exclusivamente desde arriba, ya sea del gobierno o de las propias redes educativas, puede tardar demasiado. Mientras tanto, la construcción colectiva de reglas entre profesores y estudiantes se está mostrando como un camino viable, práctico y sorprendentemente eficiente para garantizar que la inteligencia artificial se incorpore al proceso educativo de manera ética y productiva.
El equilibrio entre aprovechar el potencial de la tecnología y preservar la esencia del aprendizaje no es fácil de alcanzar. Pero el hecho de que la comunidad académica esté buscando ese punto de forma abierta y colaborativa, con voces tan diversas como las de Cryer, Clement, Tatini, Elder y Tarana, ya es, por sí solo, un avance significativo. El debate está lejos de terminar, pero al menos está ocurriendo en los lugares correctos y con las personas correctas en la mesa 🧠.
