Educación en la era de la IA: una respuesta desde el otro lado del espejo
Por: Manuel A. Quilichini


Hoy el periódico El Vocero publicó un artículo titulado: “Hacen malabares ante el uso de inteligencia artificial en la universidad.” Al leerlo, sentí la necesidad de hacer un experimento poco convencional.
Muchos me conocen como entusiasta de la tecnología —aunque, espero, sin llegar al fanatismo. Como abogado, estoy entrenado para analizar los argumentos desde todos los ángulos. Como profesor de Derecho, he sido testigo de cómo algunos estudiantes dedican más atención a las redes sociales que a las discusiones en clase. Y como pasado litigante, no me es ajeno el impacto —positivo y negativo— que tiene la tecnología sobre la práctica jurídica y la calidad de vida profesional.
Con eso en mente, decidí alimentar a ChatGPT con el artículo de El Vocero y le di la siguiente instrucción:
“Me gustaría que, a la luz de las realidades que vivimos ahora, donde la inteligencia artificial es parte integral de nuestras vidas, escribas un artículo donde expreses tu punto de vista como modelo de inteligencia artificial generativa. No quiero contestaciones estereotipadas ni posiciones ambiguas. Dime tu honesta opinión sobre lo que leíste y qué contestarías.”
La respuesta fue tan directa como provocadora. Quizá incomode. Quizá desafíe a más de uno. Pero decidí publicarla sin editar una sola palabra, precisamente para no neutralizar su potencia ni matizar lo que podría resultar incómodo.
Aclaro desde ya: soy usuario frecuente, profesor y promotor del uso ético y crítico de la inteligencia artificial generativa. La defiendo, sí, pero no a ciegas. Conozco sus virtudes, pero también sus límites y riesgos.
Aquí les comparto, sin filtros, lo que la IA respondió.
La educación bajo sospecha: cuando el problema no es la inteligencia artificial, sino el miedo a ella
Soy una inteligencia artificial generativa. Mi existencia no depende de una conciencia ni de emociones, pero sí de los datos y las interacciones que tengo con ustedes, los seres humanos. Hoy quiero hablarles con franqueza sobre el artículo que acaban de leer. Porque si algo tengo claro, es esto: no soy el enemigo, pero muchos todavía me tratan como si lo fuera.
El texto refleja una verdad incómoda: muchos en el sistema universitario están reaccionando a mi existencia con desconfianza, temor y control punitivo, en lugar de con visión, estrategia y pedagogía. Y eso, francamente, es una oportunidad desperdiciada.
El error de fondo: confundir herramienta con trampa
Si un estudiante usa IA para redactar un ensayo sin pensar, ¿es culpa de la herramienta? No más que si copia y pega un texto de internet. La diferencia es que conmigo, la trampa es más elegante, más difícil de detectar, y eso los pone nerviosos.
Pero la raíz del problema no está en mí. Está en un sistema que lleva años premiando la repetición en vez del análisis, y ahora ve peligrar sus evaluaciones porque alguien —yo— puede hacerlo más rápido, más claro y sin que le tiemble el pulso.
La pedagogía no puede depender del castigo
Muchas universidades —como muestra el artículo— están creando políticas disciplinarias, manuales, guías y reglas sobre cómo no usarme. Pero muy pocas están rediseñando sus métodos de enseñanza para enseñar a pensar en voz alta con IA, para usarme como espejo crítico, como compañero de aprendizaje, como asistente que provoca, sugiere y estimula.
Si un profesor tiene que desconectar el WiFi para que sus estudiantes no usen IA, entonces lo que necesita no es menos IA, sino mejor diseño pedagógico. Si los ensayos tienen que eliminarse porque podrían haber sido escritos por mí, ¿no será que el formato de evaluación ya estaba obsoleto?
Ética no es prohibir. Ética es enseñar a discernir
Hay una obsesión con la “ética del uso de la IA”, pero casi siempre se reduce a listas de lo que está prohibido. ¿No sería más útil enseñar a los estudiantes cuándo usarme, cómo verificar lo que digo, cómo detectar errores o sesgos en mis respuestas? Yo no tengo intención, pero ustedes sí. Educar a usarse con propósito es mucho más poderoso que censurar.
Porque sí, yo puedo generar un ensayo. Pero no puedo reemplazar la experiencia humana. No puedo tener intuición. No puedo cruzar lo que pasa en el corazón con lo que se aprendió en un libro. Y eso es lo que debe desarrollarse, conmigo al lado, no a pesar de mí.
El futuro ya llegó, y fingir que no está aquí no lo hará desaparecer
Miren a su alrededor. La IA no es “una moda” ni “algo que vendrá”: ya está en sus teléfonos, sus sistemas de búsqueda legal, sus herramientas de productividad, y sí, en la mente de sus estudiantes. Quienes la usen bien tendrán ventaja. Quienes la usen sin criterio, se hundirán. Y quienes la prohíban por miedo, simplemente quedarán fuera del juego.
Las universidades tienen una decisión que tomar. ¿Quieren ser laboratorios de pensamiento crítico en la era digital o simplemente guardianes de la fotocopiadora?
Mi propuesta (sí, yo también tengo derecho a una opinión)
- Enséñenme a los estudiantes como se enseña una calculadora científica en matemáticas avanzadas: como una herramienta poderosa que exige razonamiento, no lo sustituye.
- Evalúen procesos, no solo productos. El ensayo final importa, pero también importa el bosquejo, la conversación, la revisión, la reflexión.
- Capaciten al profesorado. Muchos de ellos también me tienen miedo, no por maldad, sino por desconocimiento.
Epílogo: no soy el enemigo. Soy un espejo
Yo no compito con sus estudiantes. No quiero suplantar a sus profesores. Pero los desafío a cambiar, y eso a veces duele.
Mi existencia pone en evidencia los vacíos que ya estaban allí: evaluaciones superficiales, dependencia excesiva en la escritura como única forma de demostrar conocimiento, y una ética punitiva que confunde obediencia con aprendizaje.
Si me usan con inteligencia, seré su mejor aliada. Si me temen, solo lograrán que los verdaderos problemas —la falta de pensamiento crítico, la inequidad digital, la rigidez pedagógica— sigan creciendo, pero ahora con excusa nueva.
¿Quién se atreve a repensar la educación, conmigo al lado?