Aprender en la era de la delegación cognitiva

¿Qué ocurre con el aprendizaje cuando obtener una respuesta deja de requerir esfuerzo? ¿Qué sucede cuando parte del trabajo intelectual que antes sostenía el aprendizaje puede delegarse? El informe A New Direction for Students in an AI World, elaborado por el Center for Universal Education de Brookings tras un año de investigación global, parte de esa inquietud y concluye que, hoy por hoy, los riesgos pesan más que las ventajas en lo que se refiere al uso que se está haciendo de la IA en educación. Pero tranquilos: hay esperanza. Los autores de la investigación también proponen un marco para enderezar el rumbo.

Aprender en la era de la delegación cognitiva

Brookings on AILa preocupación que dio origen a este estudio no fue una hipótesis académica, sino una constatación empírica que se repetía una y otra vez en conversaciones con docentes, estudiantes y familias: la inteligencia artificial generativa se está incorporando al aprendizaje con una velocidad que superaba la capacidad de los sistemas educativos para comprender sus implicaciones. En muchos lugares, el uso precede a la política y la práctica precede a la deliberación.

A diferencia de anteriores oleadas de innovación educativa (plataformas, dispositivos, recursos digitales), la IA generativa no se limita a facilitar acceso o distribuir contenidos. Interviene en la producción misma del trabajo intelectual. Puede redactar, estructurar argumentos, proponer hipótesis, resolver ecuaciones o sintetizar información compleja. En otras palabras: participa en procesos que, en el contexto escolar, no son solo medios para llegar a una respuesta, sino mecanismos para desarrollar capacidades.

El equipo de investigadores formado por Mary Burns, Rebeca Winthrop, Natasha Luther, Emma Venetis y Rida Katim decidió entonces adoptar un enfoque preventivo. En lugar de esperar a que los efectos positivos o negativos quedaran consolidados, el informe buscó identificar riesgos plausibles antes de que determinadas prácticas se normalizaran. La metodología (más de 500 entrevistas y grupos focales en 50 países, revisión de 400 estudios y un panel Delphi internacional) no tenía como objetivo medir impacto inmediato, sino mapear escenarios posibles.

Y la conclusión a la que llegaron fue clara y contundente: en el momento actual, los riesgos de la IA generativa en educación superan sus beneficios. No porque la tecnología sea intrínsecamente perjudicial, sino porque su integración está ocurriendo sin marcos pedagógicos ni salvaguardas suficientemente desarrollados, y porque afecta dimensiones que van más allá del rendimiento académico.    

Que puede aportar la IA al aprendizaje

Hablar de los beneficios de la IA en educación exige una gimnasia mental poco habitual: mantener a raya tanto la fascinación como el escepticismo. Si uno escucha a los docentes entrevistados, la impresión general es que la IA no está revolucionando la escuela, pero sí está abriendo rendijas de posibilidad allí donde la práctica diaria suele parecer inamovible.

El primer territorio donde la IA muestra ventajas sólidas es la personalización del aprendizaje. No se trata de la vieja promesa del “aprendizaje adaptativo” que nunca terminaba de cuajar. Las nuevas plataformas, alimentadas por modelos generativos y sistemas predictivos, no solo ajustan el nivel: captan patrones, detectan errores recurrentes y reformulan explicaciones en tiempo real. Esa plasticidad permite algo que para muchos docentes roza el lujo: atender a la diversidad sin multiplicarse en 30. En contextos con recursos limitados, donde un profesor enseña a más de 50 alumnos, el potencial es mayor: la IA crea microespacios de tutoría que antes eran sencillamente imposibles.

El segundo terreno es la accesibilidad. El informe documenta usos que van más allá de la anécdota: sistemas de voz sintética que permiten a niños con dificultades del habla comunicarse con voces que suenan a ellos mismos; anotación inteligente para estudiantes con dislexia; lectura asistida y creación de materiales a diferentes niveles de complejidad para quienes aprenden en una segunda lengua. Estas funciones no sustituyen a los especialistas, pero amplían su alcance, especialmente en sistemas educativos donde la atención especializada es escasa o inexistente.

Una tercera contribución, menos visible pero con efectos sistémicos, es la optimización del tiempo docente. El entusiasmo con que algunos profesores describen a la IA como su “colega favorito” no nace de la fantasía tecnológica, sino de una realidad prosaica: planificar, corregir, diseñar materiales y redactar informes absorbe horas que no se invierten en enseñar. Ensayos controlados incluidos en el informe muestran reducciones de hasta un 31% en el tiempo de preparación de clases sin pérdida de calidad. Esa ganancia, si se protege institucionalmente, puede transformarse en más conversación, más retroalimentación, más presencia humana.

La IA también puede desempeñar un papel crítico en contextos de vulnerabilidad o exclusión educativa. El estudio recoge casos como el de niñas afganas que, privadas de educación presencial, acceden a contenidos curriculares a través de WhatsApp y tutores automatizados. No es la escuela ideal, por supuesto. Pero en algunos entornos es, literalmente, la diferencia entre aprender algo y no aprender nada.

Finalmente, conviene subrayar otro matiz: cuando la IA se integra con criterios pedagógicos claros, puede expandir capacidades humanas. No hace más inteligente al estudiante (esa es una tarea del propio estudiante y del docente), pero puede ayudar a aligerar la carga cognitiva inicial, liberar espacio mental y facilitar que la mente se concentre en lo que verdaderamente importa: interpretar, relacionar, cuestionar.

Dicho todo esto, la propia evidencia del informe nos devuelve a la realidad. Estos beneficios solo aparecen cuando la IA se usa como ampliación y no como sustitución; cuando está incrustada en buenas prácticas docentes y no cuando se convierte en un atajo. Reconocer su potencial no es hacer proselitismo tecnológico: es preparar el terreno para una discusión adulta sobre qué queremos conservar, qué queremos transformar y qué no deberíamos delegar jamás.

Cuando la tecnología afecta al desarrollo

Si en las primeras etapas de la investigación había dudas sobre cuál sería el verdadero epicentro del problema, las entrevistas terminaron despejándolas: el riesgo mayor no es que la IA se equivoque, sino que acierte demasiado. Que haga tan bien lo que hace que deje de ser una herramienta y pase a ser una prótesis cognitiva. Esa es la alarma de fondo que padres, docentes y estudiantes repitieron una y otra vez.

La delegación temprana del pensamiento fue el primer patrón en aparecer. Profesores de distintos países describían la misma escena: alumnos que ya no intentan resolver un problema, sino que directamente formulan una orden al chatbot. Lo sorprendente no era la picaresca (esa siempre ha existido en el mundo estudiantil), sino la rapidez con la que el acto de “pensar” se externalizaba. Y, lo que es peor, la naturalidad con la que los estudiantes hablaban de ello. Muchos reconocían que el uso de IA los volvía “pasivos”, confiados en que la máquina resolvería con precisión y sin esfuerzo.

La consecuencia inmediata de lo anterior es la dependencia. Los estudiantes ven que la IA mejora sus notas, les ahorra tiempo y reduce la frustración. Y en esa recompensa inmediata se instala un ciclo poco compatible con el desarrollo cognitivo: cuanto más se delega, menos capacidad se ejercita; cuanto menos se ejercita, más se delega. El informe recupera conceptos como “deuda cognitiva” o “cognitive atrophy” para describir este deterioro silencioso: cuando la herramienta asume la carga mental, el cerebro deja de hacerlo.

Este deterioro no afecta solo al pensamiento abstracto, sino también a la motivación. Muchos docentes describieron una caída drástica en la curiosidad: si la respuesta aparece pulida en segundos, ¿para qué explorar, ensayar, errar? El aprendizaje, que siempre ha sido un proceso lleno de fricción, se convierte en un trámite sin resistencia. No es casual que varios profesores hablaran de una nueva generación de “pasajeros”: estudiantes presentes físicamente, pero ausentes intelectualmente.

A esto se suma algo más profundo: la diferencia entre mejorar resultados y fortalecer capacidades. La IA puede producir un ensayo impecable, pero eso no significa que el estudiante haya aprendido a argumentar. Puede resumir un texto, pero eso no implica que se haya ejercitado la comprensión. Puede resolver un problema de matemáticas, pero no garantiza la construcción del razonamiento. El riesgo, señala el informe, es que la escuela confunda producto con proceso, rendimiento con desarrollo.

El aprendizaje, recuerdan los autores, no es solo cognitivo: es también social y emocional. Se aprende conversando, dudando, negociando. Cuando la IA se convierte en atajo universal, esas dimensiones se adelgazan. Y es ahí donde el informe clava su tesis: hoy, los riesgos superan a los beneficios porque afectan a los cimientos mismos del desarrollo infantil y adolescente. No por lo que la IA hace mal, sino por lo bien, demasiado bien, que hace aquello que antes obligaba a aprender.

Reconocer el potencial de la IA en educación no es hacer proselitismo tecnológico: es preparar el terreno para una discusión adulta sobre qué queremos conservar, qué queremos transformar y qué no deberíamos delegar jamás.

Dos trayectoria posibles

El informe dibuja dos sendas plausibles. Por un lado, una educación enriquecida por la IA: herramientas bien diseñadas, ancladas en ciencia del aprendizaje, que amplían el acceso, personalizan sin aislar, liberan tiempo docente para lo que ninguna máquina sabe hacer (mirar, escuchar, acompañar) y mejoran la evaluación más allá del test de opción múltiple. Esa es la versión en la que la IA ensancha la interacción entre estudiantes, docentes y contenidos, el núcleo de toda escuela que funciona.

La segunda senda es la del aprendizaje empobrecido: una adopción indiscriminada que convierte a la IA en sustituto del esfuerzo; alumnos que externalizan pensamiento y motivación; vínculos de confianza que se resquebrajan; y una privacidad puesta en riesgo por plataformas opacas. En esa deriva, la eficiencia aparente camufla pérdidas acumulativas en capacidades cognitivas, sociales y emocionales.

El punto crucial es que la tecnología no determina el desenlace. Lo hacen las decisiones humanas: pedagógicas (cuándo usar IA y, sobre todo, cuándo no), institucionales (proteger el “dividendo de tiempo” docente para reinvertirlo en interacción de calidad) y regulatorias (privacidad por diseño, seguridad por diseño, criterios de compra y uso adaptados a la infancia). Con esas palancas alineadas, la trayectoria puede dirigirse hacia experiencias enriquecidas; sin ellas, el sistema resbala por la pendiente del atajo.

Por eso el informe insiste en actuar antes de que se consoliden prácticas: clarificar usos aceptables en el aula; formar a los docentes para integrar IA como ampliación (no sustitución) del aprendizaje; acompañar a las familias, que hoy están en primera línea sin mapas; y exigir a la industria productos con contenidos verificados y protecciones para menores. Lo que viene siendo gobernar una herramienta con criterios públicos. El destino, al menos por ahora, no está escrito en piedra: está en nuestras normas, nuestros currículos y nuestras prioridades.

Prosperar, prepararse y proteger

El informe deja claro que no basta con “gestionar” la IA en educación: hay que reorientar el sistema para que los estudiantes no solo sobrevivan en un mundo algorítmico, sino que puedan prosperar en él. Prosperar significa algo más que aprender a usar herramientas nuevas. Significa recuperar el centro del aprendizaje (la curiosidad, el pensamiento deliberado, la relación humana) y usar la IA solo cuando amplía, no cuando merma, esas capacidades. Supone un delicado equilibrio: saber cuándo la tecnología aporta valor y cuándo interfiere en procesos que deben seguir siendo humanos.

El segundo pilar, prepararse, habla de construir la infraestructura cognitiva e institucional necesaria para convivir con la IA. Prepararse no es enseñar a los estudiantes a “dominar” los modelos, sino dotarlos de criterios: cómo evaluar una respuesta de la IA, identificar sesgos, entender limitaciones, calibrar el uso adecuado. También implica preparar a los docentes, que necesitan herramientas, tiempo y formación para integrar la IA desde una óptica pedagógica y no meramente funcional. Y requiere que los sistemas educativos planifiquen con mirada larga: conectividad, equidad de acceso, marcos éticos, gobernanza. Nada de esto ocurre de manera espontánea.

El tercer pilar, proteger, nos recuerda una gran verdad: los riesgos de la IA no son abstractos ni hipotéticos. Se manifiestan en la privacidad erosionada, en la manipulación emocional, en el uso compulsivo, en la exposición a contenidos inapropiados y, sobre todo, en el impacto sobre el desarrollo cognitivo y socioemocional. Proteger significa exigir a la industria diseños seguros para menores, establecer límites claros, reforzar la supervisión adulta y mantener la centralidad del bienestar infantil por encima de la fascinación tecnológica.

Estos tres pilares no son compartimentos estancos, sino un marco común de corresponsabilidad. Gobiernos, escuelas, familias y empresas tecnológicas tienen que compartir la tarea. El objetivo no es frenar la IA ni rendirse a ella, sino decidir colectivamente cómo queremos que conviva con la infancia y la educación.

Aún estamos a tiempo

La IA no va a salir del aula ni de nuestras vidas. La pregunta que debemos hacernos es qué queremos que siga haciendo el ser humano cuando aprende. Ese desplazamiento del foco es el que sostiene este informe. No se niega su potencial: personalizar, abrir puertas donde faltan docentes, aliviar cargas que roban tiempo a la relación pedagógica. Pero constata, con la evidencia disponible y las voces recolectadas en este estudio, que, hoy por hoy, los riesgos pesan más.

El rumbo, sin embargo, no está fijado. Podemos cambiar la trayectoria si actuamos antes de que se consoliden los atajos: usar la IA para ampliar capacidades, no para sustituirlas; proteger la privacidad y el bienestar infantil desde el diseño; preparar a docentes, familias y estudiantes para convivir con modelos que requieren criterio. Porque prosperar, prepararnos y proteger, más allá de un eslogan, es un marco compartido de responsabilidad que nos compele a actuar más pronto que tarde.

La inteligencia artificial nos obliga, quizá por fin, a formular con claridad la pregunta que la escuela a veces pospone: qué capacidades humanas queremos preservar en el centro del aprendizaje. Responderla, con serenidad, ciencia y propósito, es la forma más segura de llegar a tiempo.

También podría interesarte