Sin garantías no hay innovación: la IA en la escuela

En la mesa de un aula hay un portátil abierto. En la pantalla, un texto que ha sido corregido en segundos. A un lado, una rúbrica simplificada. Al otro, un resumen que no existía hace cinco minutos. Todo parece ir como la seda. La clase continúa su curso. Lo que no se ve es el trayecto de esos datos, las condiciones bajo las cuales fueron procesados, las reglas que permiten (o no) que ese intercambio sea legítimo. La innovación es visible. Las garantías, no tanto.

Sin garantías no hay innovación: la IA en la escuela

Datos y educaciónUna profesora abre su portátil antes de que empiece la clase y pide a un asistente de inteligencia artificial que reformule una rúbrica para hacerla comprensible a estudiantes de doce años. El sistema responde en segundos. Ella revisa el texto, corrige un matiz y lo proyecta en la pantalla. Cada una de esas interacciones produce datos, activa modelos entrenados con información masiva y se ejecuta dentro de infraestructuras tecnológicas que la escuela no controla del todo.

Con la inteligencia artificial ya plenamente instalada y parcialmente asumida en las aulas, debemos empezar a preguntarnos en qué condiciones institucionales resulta legítimo el uso de esta tecnología. Esa pregunta, entre otras, es uno de los focos de Entre aulas y algoritmos. Inteligencia artificial, equidad y derechos digitales en educación, de Manuel José Ruiz García, un análisis de cómo funcionan los modelos generativos, qué oportunidades abren en la enseñanza y cuáles son sus límites.

En este artículo nos centramos en los límites. Porque, como este autor defiende, la innovación educativa depende menos de la potencia de las herramientas que de las garantías que acompañan su uso.

Derechos digitales como condición de posibilidad

Cuando se habla de inteligencia artificial en educación, la conversación suele centrarse en lo que las herramientas pueden hacer: generar ejercicios, resumir textos, ofrecer retroalimentación automática o analizar grandes volúmenes de información sobre el aprendizaje. Pero ese enfoque técnico deja fuera una cuestión tremendamente importante: qué ocurre con los datos que hacen posible esas capacidades.

La digitalización educativa ha generado una enorme cantidad de información sobre la actividad escolar. Plataformas de aprendizaje, sistemas de gestión educativa y aplicaciones digitales registran resultados de ejercicios, tiempos de conexión, patrones de interacción con contenidos o rutas de navegación dentro de los materiales didácticos. La introducción de sistemas de inteligencia artificial multiplica el valor potencial de esos datos, pero también amplifica los riesgos asociados a su uso.

La analítica del aprendizaje promete detectar patrones invisibles para la observación humana, identificar estudiantes en riesgo de abandono o personalizar itinerarios educativos. Sin embargo, esa capacidad técnica no elimina la necesidad de justificar qué datos se recogen y para qué. Porque ¿es todo lo que puede medirse pedagógicamente relevante?

La acumulación indiscriminada de información puede generar entornos de vigilancia educativa que transformen la experiencia escolar en algo distinto de lo que pretende ser. El problema no es solo la privacidad individual. También afecta al clima institucional. Un sistema educativo que normaliza la monitorización constante corre el riesgo de redefinir la relación entre estudiantes, docentes y tecnología.

Aquí es donde Manuel Ruiz recupera uno de los principios centrales de la regulación europea en materia de protección de datos: la minimización que, simplificando mucho, significa recoger únicamente la información necesaria para cumplir una finalidad específica.

A este principio se añade otro igualmente importante: la supervisión humana significativa. Las decisiones con impacto relevante en la trayectoria de un estudiante (evaluaciones académicas, recomendaciones educativas o identificación de dificultades de aprendizaje) no deberían depender exclusivamente de sistemas automatizados.

Este punto no responde únicamente a una preocupación ética. Tiene una dimensión epistemológica. Los sistemas de inteligencia artificial funcionan detectando patrones en datos pasados. El trabajo educativo, en cambio, implica interpretar trayectorias individuales, contextos sociales y potenciales de desarrollo que no siempre se reflejan en los datos disponibles.

Por eso la transparencia se convierte en una tercera garantía fundamental. Saber qué datos se utilizan, cómo se procesan y bajo qué criterios se generan recomendaciones no es solo una exigencia normativa. Es también una condición para que docentes, estudiantes y familias puedan comprender las decisiones que afectan al proceso educativo.

En este contexto, afirma la publicación, los derechos digitales se convierten en una condición estructural de la innovación educativa: sin garantías sobre datos, supervisión humana y transparencia, la innovación educativa pierde legitimidad institucional. Las tecnologías pueden mejorar la eficiencia de ciertos procesos, pero difícilmente podrán sostenerse dentro de sistemas educativos públicos si no generan confianza social.

La acumulación indiscriminada de información puede generar entornos de vigilancia educativa que transformen la experiencia escolar en algo distinto de lo que pretende ser.

La infraestructura no es neutral

Desplacemos ahora la mirada: desde las aplicaciones, que constituyen la cara visible de la inteligencia artificial, hacia la infraestructura tecnológica que las hace posibles.

Los sistemas generativos actuales no son herramientas aisladas. Forman parte de un ecosistema tecnológico mucho más amplio que incluye modelos entrenados con enormes volúmenes de datos, centros de procesamiento distribuidos y plataformas que operan a escala global.

La mayoría de los modelos de inteligencia artificial que hoy se utilizan en educación han sido desarrollados por grandes empresas tecnológicas o por instituciones con capacidades computacionales excepcionales. Los centros educativos, en cambio, operan en contextos locales y bajo responsabilidades públicas específicas. Cuando adoptan herramientas basadas en esos modelos, pasan a depender de sistemas cuyo funcionamiento y evolución no controlan.

Esta dependencia tiene varias implicaciones. La primera es la opacidad técnica. El entrenamiento de modelos de lenguaje o de sistemas de recomendación suele basarse en conjuntos de datos masivos cuya composición rara vez es completamente transparente. La segunda es la asimetría institucional. Las decisiones sobre actualizaciones, políticas de acceso o condiciones de uso se toman en entornos que no responden directamente a las prioridades educativas.

Nada de esto implica que las herramientas no deban utilizarse. Significa que su adopción exige una reflexión sobre gobernanza tecnológica. Poder responder preguntas como ¿quién define los criterios de adopción? ¿Qué condiciones deben cumplir los proveedores tecnológicos? ¿Cómo se evalúan los riesgos asociados a sistemas que evolucionan rápidamente?

En este punto, Manuel Ruiz, se refiere a una línea de análisis que empieza a ganar relevancia en el debate internacional: el desarrollo de alternativas tecnológicas más controlables. Frente a la dependencia exclusiva de grandes modelos generativos alojados en la nube, algunos sistemas educativos comienzan a experimentar con lo que el autor denomina formas de IA de proximidad: modelos más pequeños y especializados capaces de funcionar en infraestructuras institucionales o incluso en dispositivos locales.

Estos sistemas no tienen la potencia de los grandes modelos comerciales, pero presentan ventajas importantes en términos de control de datos, transparencia operativa y capacidad de adaptación pedagógica. Al reducir la distancia entre la herramienta y la institución que la utiliza, amplían también el margen de decisión de los sistemas educativos sobre cómo se procesan los datos y bajo qué condiciones se utilizan.

Esta perspectiva introduce una cuestión que el libro denomina soberanía pedagógica y del dato, que básicamente consiste en evitar dependencias absolutas de grandes plataformas tecnológicas que limiten la capacidad de los sistemas educativos para definir sus propias reglas de funcionamiento.

Además, en contextos con conectividad limitada o recursos tecnológicos escasos, las soluciones basadas en infraestructuras locales pueden resultar más sostenibles que la dependencia permanente de servicios externos. Herramientas capaces de operar offline, modelos entrenados para tareas educativas específicas o sistemas que procesan información dentro de la propia institución pueden ofrecer alternativas viables allí donde la infraestructura digital es menos sólida.

Desde esta perspectiva, la discusión sobre inteligencia artificial en educación no se limita a qué herramientas utilizar, sino a qué arquitectura tecnológica sostiene el sistema educativo y quién tiene capacidad para gobernarla.

Innovar bajo condiciones

La tecnología no sustituye a las instituciones educativas, pero tampoco es neutral respecto a ellas. Cada sistema incorpora supuestos sobre cómo se organiza la información, cómo se toman decisiones y quién tiene acceso a los datos. Cuando esas herramientas se integran en el funcionamiento cotidiano de las escuelas, esas reglas pasan a formar parte del propio entorno educativo. Pero ¿qué condiciones deben existir para que esa ayuda sea compatible con los principios que sostienen la educación pública?

La historia de la innovación educativa muestra que las transformaciones tecnológicas más duraderas no han sido las más rápidas, sino aquellas que se han integrado dentro de marcos institucionales sólidos. La radio educativa, los ordenadores escolares o las plataformas digitales no transformaron la educación por sí mismos. Lo hicieron cuando se integraron en prácticas pedagógicas y regulaciones institucionales capaces de orientar su uso.

La inteligencia artificial introduce, además, otro desafío: su capacidad para operar sobre grandes volúmenes de datos y generar recomendaciones automatizadas amplía el alcance de la tecnología dentro del sistema educativo. Eso hace todavía más necesario definir con claridad los límites dentro de los cuales esas herramientas pueden utilizarse.

Lejos de suponer una restricción a la innovación, estos límites son su condición de posibilidad. Protegen a los estudiantes frente a usos indebidos de sus datos, preservan la responsabilidad profesional de los docentes y aseguran que las decisiones educativas relevantes siguen estando sometidas a criterios comprensibles y revisables.

Ruiz García propone entender estos límites en varios planos. En primer lugar, límites a la automatización de decisiones educativas: los sistemas de inteligencia artificial pueden asistir procesos de evaluación o análisis del aprendizaje, pero no sustituir el juicio pedagógico. En segundo lugar, límites en la recopilación de datos. No todo lo que puede registrarse en una plataforma educativa constituye información pedagógicamente relevante. Finalmente, límites derivados de la transparencia y la gobernanza tecnológica: cuando una herramienta interviene en procesos educativos significativos, su funcionamiento debe ser comprensible y sus decisiones revisables.

Una ventana de oportunidad

Las instituciones educativas existen precisamente para filtrar, ordenar y dar sentido social a los cambios tecnológicos. La escuela no es solo un lugar donde se utilizan herramientas. Es el espacio donde se decide qué herramientas merecen confianza pública y bajo qué condiciones pueden formar parte del aprendizaje.

Desde esta perspectiva, el desafío que actualmente plantea la inteligencia artificial consiste en definir los criterios institucionales que harán posible su integración sin alterar los principios que justifican la existencia del sistema educativo: equidad, responsabilidad pública y autonomía profesional de los docentes.

Si algo nos ha enseñado la historia de la digitalización educativa es que la tecnología avanza más rápido que las instituciones que deben gobernarla. La inteligencia artificial amplifica ese desfase. Pero la rapidez con la que los sistemas generativos han entrado en el debate público ha tenido un efecto inesperado: ha hecho visible una infraestructura tecnológica que durante años había permanecido en segundo plano. Esa visibilidad crea una oportunidad poco habitual en la historia de la tecnología educativa: discutir las reglas de su uso antes de que esas infraestructuras se naturalicen.

También podría interesarte