La expansión de la IA educativa
En los últimos meses, la incorporación de herramientas de inteligencia artificial generativa en escuelas y sistemas educativos se ha acelerado de forma notable y ha pasado a ocupar un lugar central en las agendas públicas. Gobiernos de distintos continentes están firmando acuerdos con grandes empresas tecnológicas para introducir chatbots, tutores virtuales y programas de formación en inteligencia artificial a gran escala.
Un reciente artículo del New York Times sintetiza bien esta aceleración. Más allá de los casos concretos, el patrón se repite: despliegues rápidos, programas nacionales o regionales, alianzas público-privadas y una narrativa optimista sobre el potencial de estas herramientas para modernizar la enseñanza. La IA aparece asociada a objetivos reconocibles (eficiencia, personalización del aprendizaje, alivio de la carga docente) y a una idea de futuro que conviene no perder de vista: preparar a los estudiantes para una economía cada vez más automatizada.
El discurso tiene fuerza porque conecta con problemas reales. Los sistemas educativos arrastran déficits de recursos, aulas masificadas y docentes desbordados. En ese contexto, la IA se presenta como una solución pragmática, capaz de generar materiales, ofrecer retroalimentación inmediata o adaptar contenidos al ritmo de cada alumno, con costes relativamente bajos y una alta capacidad de escalado.
Sin embargo, el foco casi exclusivo en el despliegue tecnológico deja en segundo plano una cuestión más de fondo. En muchos contextos, la discusión pública ya no se centra tanto en si la inteligencia artificial debe o no entrar en la escuela, como en cómo hacerlo. Esa deriva desplaza una pregunta clave: qué tipo de aprendizaje encuentra la A.I. una vez que se integra en el aula. Qué prácticas pedagógicas refuerza, cuáles desplaza y qué capacidades tiende a considerar prescindibles. Porque la IA no aterriza en el vacío: se inserta en sistemas educativos con reglas, incentivos y fragilidades previas. Y es ahí donde empieza el verdadero debate.
El aprendizaje que ya estaba en retirada
Mucho antes de la llegada de la inteligencia artificial generativa, el aprendizaje escolar ya venía orientándose cada vez más hacia el resultado. El proceso (cómo se piensa, se prueba, se falla y se reformula) fue perdiendo centralidad frente a la entrega correcta y evaluable. Currículos cada vez más extensos, evaluaciones centradas en indicadores medibles y una presión constante por cumplir objetivos han ido estrechando el margen para el pensamiento lento y la exploración intelectual.
En ese contexto, lo que ocurre entre el inicio de una tarea y su resultado final se ha vuelto progresivamente invisible. Los borradores que no cuentan, los errores que no se corrigen sino que se penalizan, las ideas que necesitan tiempo para madurar o reformularse apenas dejan huella en sistemas diseñados para certificar productos, no procesos. Sin embargo, es precisamente en ese recorrido intermedio donde se construyen la comprensión profunda, el criterio propio y la capacidad de aprender de forma autónoma.
La escuela, en la práctica, llevaba tiempo premiando la respuesta correcta más que el razonamiento que la sostiene. La expansión de plataformas digitales, rúbricas cerradas y sistemas de evaluación automatizados reforzó esta tendencia al privilegiar lo cuantificable sobre lo cognitivo. Con el tiempo, esta lógica se consolidó como una forma de gestionar sistemas educativos complejos a partir de criterios de eficiencia y comparabilidad.
Como consecuencia de todo esto, la incorporación de la inteligencia artificial se produce en un contexto en el que el aprendizaje ya estaba fuertemente orientado al resultado final. En ese marco, una tecnología capaz de generar respuestas plausibles, bien estructuradas y lingüísticamente correctas se integra con facilidad. En muchas prácticas de aula, esto se refleja en tareas concebidas para llegar a una solución, más que para explorar un problema, y en evaluaciones que apenas permiten seguir el razonamiento del estudiante. Aunque la IA no ha sido la que ha introducido esta lógica, contribuye a intensificarla al ofrecer un atajo eficaz dentro de un sistema que ya la favorecía.
La diferencia clave no está, por tanto, entre usar o no usar IA, sino entre apoyar el aprendizaje y sustituir el esfuerzo cognitivo intermedio.
Delegar el pensamiento: qué cambia cuando la respuesta llega primero
La inteligencia artificial generativa introduce una novedad significativa en la experiencia educativa: la posibilidad de acceder de forma inmediata a respuestas completas, coherentes y verosímiles. En determinados contextos, esto puede resultar útil como apoyo (por ejemplo, para clarificar conceptos o generar ejemplos), pero también altera la secuencia tradicional del aprendizaje. Por primera vez, la respuesta puede aparecer antes de que el estudiante haya formulado plenamente la pregunta.
Este cambio plantea un riesgo específico: la delegación cognitiva temprana. Cuando el acceso a una respuesta convincente es inmediato, parte del esfuerzo mental intermedio (analizar, comparar, dudar, ensayar) deja de activarse. No se trata solo de copiar, sino de apoyarse en un razonamiento que no se ha construido. El resultado puede ser correcto pero el proceso queda “externalizado”.
La evidencia empírica sobre estos efectos aún es limitada, comienza a ofrecer indicios consistentes que invitan a la cautela. Estudios recientes, entre ellos investigaciones desarrolladas por equipos de Microsoft y la Universidad Carnegie Mellon, sugieren que el uso frecuente de chatbots puede reducir la activación del pensamiento crítico en determinadas tareas, especialmente cuando se emplean como sustituto y no como complemento del razonamiento propio. A ello se suman preocupaciones crecientes por la confianza acrítica en respuestas generadas por sistemas que, pese a su tono confiable, pueden producir errores o información sesgada.
En paralelo, distintos estudios de aula y encuestas docentes apuntan a un aumento de usos instrumentales de la IA en tareas escolares: generación de textos, resolución de ejercicios o estructuración de trabajos sin una mediación pedagógica clara. Por ejemplo, un informe reciente encontró que dos de cada tres adolescentes usan ChatGPT para tareas escolares como ensayos o problemas académicos, lo que sugiere un uso extendido más allá del apoyo puntual. Investigaciones sobre prácticas académicas también indican que, aunque la IA puede ahorrar tiempo y ayudar a iniciar tareas, puede fomentar cierta complacencia y reducir la activación del pensamiento crítico entre estudiantes.
La diferencia clave no está, por tanto, entre usar o no usar IA, sino entre apoyar el aprendizaje y sustituir el esfuerzo cognitivo intermedio. El problema no es que la inteligencia artificial se equivoque, sino que acierte demasiado bien y oculte el recorrido intelectual que normalmente conduce a una respuesta.
Aparece la cautela
El propio reportaje del New York Times recoge que, junto al entusiasmo inicial, empiezan a surgir también voces de cautela. Investigadores, docentes y organismos internacionales advierten de que una adopción acelerada y poco regulada de la IA puede tener efectos no deseados sobre el aprendizaje. UNICEF, en su guía actualizada sobre inteligencia artificial y derechos de la infancia, subraya que la rápida adopción de sistemas de IA puede plantear riesgos si no se articulan marcos institucionales y pedagógicos que protejan los derechos y el bienestar de niños y jóvenes, y recomienda políticas que equilibren oportunidades y salvaguardias.
Estas advertencias no surgen en el vacío. Como recuerda el New York Times, la historia reciente de la tecnología educativa ofrece precedentes elocuentes. Programas masivos centrados en el acceso a dispositivos, como la iniciativa One Laptop per Child, no lograron mejorar de forma significativa los resultados de aprendizaje, pese a la magnitud de la inversión. Aquella experiencia puso de relieve que el acceso tecnológico, por sí solo, no se traduce necesariamente en mejoras del aprendizaje.
En respuesta a estas preocupaciones, algunos sistemas educativos están optando por enfoques más deliberados. En lugar de priorizar el uso inmediato de la IA por parte de los estudiantes, ponen el acento en la alfabetización en inteligencia artificial, la formación docente y el diseño pedagógico. La inteligencia artificial se plantea así como un objeto de aprendizaje, algo que comprender, cuestionar y evaluar, antes que como un atajo para producir resultados.
Estas experiencias no cierran el debate, pero permiten observar con mayor nitidez las tensiones que introduce la A.I. en el aprendizaje. La cuestión es qué modelo de aprendizaje se refuerza con cada una de ellas y qué capacidades quedan relegadas cuando la eficiencia se convierte en el criterio dominante.
Qué no deberíamos delegar, aunque podamos
La expansión de la inteligencia artificial en la educación obliga, en último término, a formular una pregunta normativa: qué no debería delegarse, aunque la tecnología lo permita. Formular buenas preguntas, sostener la duda, construir un argumento propio o aprender del error no son habilidades accesorias. Constituyen el núcleo del aprendizaje y, en buena medida, de la formación intelectual de los estudiantes.
Estas capacidades no se desarrollan de forma automática ni eficiente. Requieren tiempo, acompañamiento y espacios donde el error no sea penalizado de inmediato. Sin embargo, son precisamente las más difíciles de proteger en sistemas educativos orientados al rendimiento rápido y a la evaluación de productos finales. Si la IA se integra sin una reflexión previa, corre el riesgo de reforzar esa lógica: respuestas correctas, textos coherentes, tareas resueltas, pero sin rastro del proceso que las sostiene.
Proteger el aprendizaje como proceso implica decisiones concretas. En la evaluación, supone dar más peso a los recorridos (borradores, revisiones, argumentaciones parciales) que al resultado final. En la formación docente, exige preparar a los profesores no solo para usar herramientas de inteligencia artificial, sino para mediar críticamente su uso en el aula. Y en el diseño curricular, obliga a preguntarse qué aprendizajes requieren fricción, lentitud y esfuerzo, y cuáles pueden beneficiarse de apoyos tecnológicos sin perder profundidad.
En este marco, la alfabetización en IA no puede plantearse como un complemento opcional. Entender cómo funcionan estos sistemas, cuáles son sus límites y sesgos, y en qué contextos conviene (o no conviene) utilizarlos es ya una condición básica para aprender y enseñar. La cuestión, más bien, es definir con claridad el lugar que estas herramientas deben ocupar en los procesos educativos.
La inteligencia artificial puede apoyar la educación de múltiples maneras. Puede facilitar tareas, ampliar recursos y aliviar cargas. Pero no puede ni debe definir qué significa aprender. Esa sigue siendo una decisión educativa, y por tanto humana.


