Hubo un tiempo en que escribir un texto obligaba a pensar mientras se escribía. La frase aparecía antes de estar del todo clara. Las ideas se ordenaban durante el recorrido. Un resumen exigía distinguir lo importante de lo accesorio. Buscar información implicaba perder tiempo, desviarse, leer cosas inútiles, equivocarse de camino. Estudiar suponía enfrentarse a la dificultad de reorganizar mentalmente un problema hasta hacerlo comprensible. Incluso empezar era difícil. Sobre todo empezar.
Parte de la experiencia intelectual consistía precisamente en atravesar ese proceso. No solo por llegar al resultado, sino porque buena parte de la comprensión se construía durante el trayecto.
La expansión de la inteligencia artificial empieza a alterar esa relación entre pensamiento y producción intelectual. No porque las máquinas “piensen” por nosotros, sino porque permiten obtener ciertos resultados sin pasar necesariamente por todas las operaciones cognitivas que antes los hacían posibles. El esquema aparece antes de haber comprendido del todo un tema. Un ensayo puede adquirir forma antes de que las ideas hayan terminado de madurar. Una respuesta puede llegar antes que la duda.
La relación entre el esfuerzo intelectual y la construcción de conocimiento está empezando a modificarse.
En una reciente conferencia titulada Leer el mundo hoy. La escuela en tiempos de inteligencia artificial, el pedagogo y especialista en innovación educativa Carlos Magro proponía mirar la IA menos como una innovación tecnológica que como un espejo sobre la educación contemporánea. Su reflexión no giraba únicamente alrededor de herramientas o plataformas, sino alrededor de algo más difícil de medir: el lugar del pensamiento en una cultura obsesionada con la productividad, la eficiencia y la aceleración.
La cuestión es relevante porque muchas de las tareas escolares tradicionales nunca tuvieron valor únicamente por el resultado final. Escribir, resumir, resolver un problema matemático o interpretar un texto eran también formas de organizar el pensamiento. Procesos de elaboración. Modos de aprender a mirar, relacionar, distinguir, jerarquizar o argumentar. El trabajo intelectual no aparecía después del aprendizaje. Era el aprendizaje.
La inteligencia artificial introduce una tensión nueva en esa lógica. Por primera vez, una parte creciente de los productos visibles del pensamiento (textos, respuestas, síntesis, explicaciones) puede generarse sin recorrer completamente el camino que antes conducía hasta ellos. Durante mucho tiempo, escribir, resumir, resolver un problema o preparar un examen fueron vistos sobre todo como maneras de demostrar lo aprendido. Hoy, la inteligencia artificial nos pone de manifiesto otra posibilidad: que parte del aprendizaje ocurriera precisamente mientras se hacían esas tareas.
La escuela siempre fue también una tecnología de la atención
La escuela nunca fue únicamente un lugar para transmitir información. Mucho antes de internet, mucho antes de las plataformas digitales y de la inteligencia artificial, su función consistía también en crear las condiciones necesarias para sostener la atención y organizar el pensamiento.
Leer una novela larga, resolver un problema matemático complejo, escribir una redacción o interpretar un texto filosófico exigían tiempo. Pero no solo tiempo cronológico. Exigían permanencia. La capacidad de demorarse en una idea incluso cuando aparecía el aburrimiento, la frustración o el cansancio. En buena medida, aprender consistía en permanecer el tiempo suficiente dentro de una dificultad.
Eso no convierte retrospectivamente a la escuela en un espacio ideal. La escuela también ha sido rigidez, repetición mecánica, memorización vacía y disciplina excesiva. Muchas veces confundió atención con obediencia y silencio con aprendizaje. Pero incluso en sus versiones más burocráticas o rutinarias conservaba una intuición: ciertos procesos intelectuales necesitan duración, continuidad y cierta resistencia al impulso de abandonar rápidamente.
Leer profundamente, por ejemplo, implica mucho más que decodificar información. Obliga a sostener conexiones, recordar lo leído unas páginas antes, anticipar sentidos, convivir con zonas de ambigüedad. Algo parecido ocurre con la escritura. Redactar no consiste únicamente en comunicar una idea ya formada. Con frecuencia, la idea aparece precisamente durante el proceso de escribir, corregir, borrar, reorganizar y volver a empezar.
Parte de las preocupaciones que plantea Carlos Magro en su conferencia apuntan justamente hacia ahí. No solo hacia el impacto de la inteligencia artificial sobre las tareas escolares, sino sobre las condiciones culturales del pensamiento. La cuestión no es únicamente qué pueden hacer las máquinas, sino qué ocurre con nuestra relación con la atención, la lectura, la espera o la elaboración intelectual en un entorno marcado por la aceleración permanente.
Porque la IA no aparece en el vacío. Llega a una cultura ya atravesada por la hiperestimulación, la fragmentación de la atención y la dificultad creciente para sostener procesos largos de concentración. Antes incluso de que los chatbots empezaran a escribir textos o resolver ejercicios, buena parte de la experiencia contemporánea ya estaba organizada alrededor de la velocidad, la interrupción y la respuesta inmediata.
Existe una larga tradición de investigación en psicología cognitiva que sostiene una idea aparentemente contradictoria: aprender no siempre se vuelve más eficaz cuando las tareas se hacen más fáciles. A comienzos de los años noventa, los psicólogos Robert y Elizabeth Bjork acuñaron el concepto de desirable difficulties (dificultades deseables) para describir aquellos esfuerzos cognitivos que, aunque vuelven el aprendizaje más lento o más exigente en el corto plazo, fortalecen la comprensión y la memoria a largo plazo.
La idea cuestiona una percepción muy extendida en la cultura contemporánea: que reducir fricciones equivale automáticamente a mejorar el aprendizaje. En educación, algunas dificultades no son un obstáculo para pensar, sino parte del proceso mismo de comprensión.
Eso ayuda a entender por qué el debate sobre inteligencia artificial en educación no puede reducirse únicamente a la discusión sobre herramientas. Parte de las preocupaciones que plantea Carlos Magro apuntan justamente hacia ahí: qué ocurre cuando ciertas tecnologías permiten obtener resultados intelectuales sin atravesar completamente las operaciones cognitivas que antes los hacían posibles.
La cuestión no es menor. Formular una pregunta, resumir un texto, reorganizar unas notas, escribir un ensayo o resolver un problema matemático no son únicamente maneras de mostrar lo aprendido. Son también formas de elaborar pensamiento. La escritura, por ejemplo, no suele limitarse a expresar una idea ya terminada. Muchas veces obliga precisamente a descubrir qué se piensa, detectar contradicciones, reorganizar argumentos o encontrar relaciones que todavía no estaban claras.
Algo parecido ocurre con la metacognición: la capacidad de revisar, supervisar y reflexionar sobre el propio proceso de aprendizaje. Diversas investigaciones recientes empiezan a advertir de que una dependencia excesiva de herramientas generativas puede reducir parte de ese trabajo cognitivo. Algunos estudios muestran que los estudiantes mejoran su rendimiento mientras tienen acceso activo a sistemas de IA, pero encuentran más dificultades cuando deben resolver tareas similares de manera autónoma. Otras investigaciones alertan sobre riesgos de razonamiento superficial, automatización prematura o menor esfuerzo intelectual sostenido.
Eso no convierte automáticamente a la inteligencia artificial en una amenaza educativa. Algunas automatizaciones pueden liberar tiempo, reducir tareas repetitivas y ofrecer apoyos valiosos para determinados estudiantes o contextos. Delegar ciertas operaciones mecánicas no necesariamente empobrece el aprendizaje. El problema depende, en buena medida, de qué se delega.
Porque no toda eficiencia produce comprensión.
La cuestión de fondo quizá no sea entonces si la inteligencia artificial debe entrar o no en las aulas, sino qué procesos intelectuales sigue mereciendo la pena atravesar.
Formular una pregunta, resumir un texto, reorganizar unas notas, escribir un ensayo o resolver un problema matemático no son únicamente maneras de mostrar lo aprendido. Son también formas de elaborar pensamiento.
El nuevo conflicto educativo: sustituir o ampliar el pensamiento
Durante décadas, buena parte de la escuela funcionó sobre una premisa relativamente estable: el trabajo visible de un estudiante ofrecía pistas razonables sobre su proceso de aprendizaje. Un ensayo permitía inferir comprensión lectora, capacidad argumentativa o manejo de ideas complejas. Un problema matemático mostraba procedimientos. Un resumen obligaba a seleccionar, organizar y jerarquizar información. El producto final nunca reflejaba perfectamente el pensamiento, pero existía una relación relativamente reconocible entre el esfuerzo intelectual y el resultado entregado.
La expansión de la inteligencia artificial empieza a volver más inestable esa relación. Hoy es posible producir textos convincentes, resolver ejercicios complejos o generar explicaciones elaboradas sin atravesar necesariamente el mismo proceso cognitivo que antes exigían esas tareas. Y eso introduce una dificultad nueva para la escuela: ya no siempre resulta evidente qué parte del trabajo ha sido realmente pensada, comprendida o elaborada por quien la presenta.
El problema no afecta únicamente a la autoría. Afecta también a la evaluación. Porque durante mucho tiempo la escuela evaluó sobre todo productos visibles: respuestas, ejercicios, redacciones, trabajos finales. La inteligencia artificial obliga a mirar con más atención aquello que esos productos no siempre muestran: el recorrido intelectual que condujo hasta ellos.
Parte de las reflexiones planteadas por Carlos Magro apuntan precisamente hacia esa tensión. No solo porque la IA permita automatizar determinadas tareas, sino porque vuelve más frágil una cultura educativa muy orientada al rendimiento visible y al resultado final.
Eso empieza a modificar prácticas concretas en muchas aulas. Algunos docentes están recuperando evaluaciones orales, trabajos realizados en clase o ejercicios centrados en explicar procesos y no únicamente respuestas. Otros piden borradores intermedios, conversaciones sobre cómo se construyó un texto o actividades donde lo importante ya no es solo entregar un producto correcto, sino mostrar cómo se llegó hasta él.
La cuestión no parece reducirse a detectar trampas. De hecho, muchos de estos cambios existían antes de la inteligencia artificial y respondían ya a críticas sobre modelos de evaluación demasiado centrados en resultados rápidos y poco atentos a la comprensión profunda. La IA acelera esa discusión porque hace más visible una diferencia que durante mucho tiempo permaneció parcialmente oculta: producir una respuesta no siempre equivale a construir conocimiento.
Qué merece seguir siendo difícil
La escuela nunca organizó el aprendizaje únicamente alrededor de la eficiencia. De hecho, buena parte de sus prácticas históricas conservaron sentido incluso cuando existían maneras más rápidas de obtener el mismo resultado. Seguimos enseñando a escribir a mano cuando los teclados ya dominaban la vida cotidiana. Los estudiantes continúan resolviendo operaciones matemáticas aunque existan calculadoras capaces de hacerlo en segundos. Leer una novela larga sigue ocupando semanas de trabajo escolar en una cultura acostumbrada a la velocidad de los fragmentos y las pantallas.
No siempre se trata de nostalgia. Muchas veces la decisión responde a otra lógica: la de preservar ciertas experiencias intelectuales consideradas importantes para aprender a pensar.
Parte de las preguntas que plantea Carlos Magro apuntan precisamente hacia ahí. La inteligencia artificial no obliga únicamente a decidir qué herramientas incorporar a las aulas. Obliga también a preguntarse qué prácticas intelectuales merece la pena seguir atravesando incluso cuando existen formas más rápidas, cómodas o eficientes de evitarlas.
La cuestión es especialmente compleja porque no existe una frontera clara entre apoyo y sustitución. Delegar ciertas tareas mecánicas puede liberar tiempo para actividades más relevantes. Pero externalizar demasiado pronto algunos procesos también puede debilitar capacidades que necesitan precisamente del ejercicio sostenido para desarrollarse: escribir, argumentar, interpretar, relacionar ideas, tolerar la incertidumbre, sostener la atención o enfrentarse a una dificultad sin abandonarla inmediatamente.
Quizá por eso la discusión educativa alrededor de la inteligencia artificial empieza a cambiar lentamente de foco. Menos hacia la pregunta sobre qué puede hacer la tecnología y más hacia otra cuestión, mucho más antigua y difícil: qué tipo de experiencias intelectuales consideramos todavía necesarias para formar sujetos capaces de pensar por sí mismos.


