¿Puede un algoritmo recomendar qué debe estudiar un alumno mañana? ¿O sugerir qué estudiante necesita apoyo antes de que el profesor lo detecte? ¿Podría, incluso, influir en cómo se evalúan los aprendizajes? Estas preguntas, que hace apenas unos años podrían parecer propias de la ciencia-ficción, empiezan a aparecer en el funcionamiento cotidiano de muchas escuelas. La inteligencia artificial ya se utiliza para preparar materiales didácticos, analizar resultados académicos o identificar patrones de aprendizaje en grandes volúmenes de datos.
Esto podría parecer un cambio meramente técnico, pero no lo es. Cuando un sistema capaz de generar recomendaciones entra en procesos como la evaluación, la planificación de actividades o el seguimiento del alumnado, introduce una nueva capa en la toma de decisiones educativas. La Comisión Europea acaba de actualizar su informe Guidelines on the ethical use of artificial intelligence and data in teaching and learning for educators, donde advierte de que algunas aplicaciones de inteligencia artificial, especialmente aquellas relacionadas con la evaluación o el seguimiento del progreso académico, pueden tener impactos significativos y requieren cautela.
Así las cosas, ¿cómo deben decidir las escuelas cuándo y cómo utilizar estas herramientas? A partir de las orientaciones propuestas por el informe de la Comisión, este artículo identifica cinco lecciones prácticas que pueden ayudar a los sistemas educativos a tomar decisiones más informadas sobre el uso de inteligencia artificial en el aula.
Primera lección: empezar por la decisión educativa, no por la herramienta
Cuando aparece una nueva tecnología, la reacción inmediata suele ser fijarse en sus prestaciones. ¿Redacta actividades? ¿Corrige más deprisa? ¿Personaliza itinerarios? ¿Detecta estudiantes en riesgo? Esta, que es una forma natural de aproximarse a la innovación, no siempre resulta ser la más útil para la escuela. Por ello, la Comisión propone desplazar el punto de partida: antes de adoptar una herramienta de inteligencia artificial conviene identificar qué decisión educativa entra en juego y qué consecuencias puede tener apoyarla en un sistema algorítmico.
Las aplicaciones de IA intervienen en procesos muy distintos. Algunas se sitúan en tareas relativamente acotadas: preparar materiales, generar ejemplos, sugerir actividades o traducir contenidos. Otras participan en ámbitos más sensibles del funcionamiento escolar: analizar resultados académicos, recomendar itinerarios de aprendizaje o detectar estudiantes que podrían necesitar apoyo adicional.
En estos casos, la tecnología se introduce en procesos que influyen directamente en la trayectoria educativa de los estudiantes. El informe advierte de que determinados usos, especialmente aquellos vinculados a la evaluación del aprendizaje, al acceso a programas educativos o al seguimiento del progreso académico, requieren especial cautela y supervisión.
La razón es sencilla. En educación, las decisiones nunca son puramente técnicas. Evaluar implica interpretar el sentido de una respuesta, considerar el contexto en que se ha producido y valorar el proceso de aprendizaje. Detectar dificultades exige comprender situaciones personales y trayectorias escolares diversas. Recomendar un itinerario supone proyectar expectativas sobre el desarrollo futuro de un estudiante. Son decisiones atravesadas por criterios pedagógicos, contextos sociales y juicios profesionales.
De ahí la importancia de definir con claridad el papel que estas herramientas pueden desempeñar en el funcionamiento de la escuela. Las instituciones educativas necesitan delimitar en qué procesos la inteligencia artificial puede ofrecer apoyo útil y en cuáles resulta más prudente mantener una intervención estrictamente humana. Este tipo de reflexión permite evaluar las tecnologías a partir de su relación con las decisiones educativas que afectan, y no únicamente por el atractivo de sus funciones o por la promesa de eficiencia que suelen acompañarlas.
Segunda lección: mantener siempre supervisión humana
La capacidad de la inteligencia artificial para analizar grandes volúmenes de información explica buena parte de su atractivo en educación. En entornos educativos cada vez más digitalizados, donde las plataformas registran múltiples interacciones, ese tipo de análisis puede ofrecer indicios útiles para orientar la enseñanza.
El informe impulsado por la Comisión Europea reconoce ese potencial, pero subraya al mismo tiempo la necesidad de mantener una supervisión humana constante sobre los sistemas que intervienen en decisiones educativas.
La razón no reside en una desconfianza general hacia la tecnología, sino en la naturaleza misma de estos sistemas. Los algoritmos identifican correlaciones en datos; no comprenden el significado educativo de los procesos que analizan ni el contexto en que se producen.
En la práctica, esto significa que una recomendación generada por un sistema de IA siempre va a requerir de una “interpretación”. Los datos pueden señalar tendencias, pero la decisión educativa incorpora factores que no aparecen necesariamente en los registros digitales: situaciones familiares, motivación personal, experiencias previas de aprendizaje o dinámicas de grupo dentro del aula.
El marco regulatorio europeo refleja esta preocupación al clasificar como especialmente sensibles ciertos usos de la inteligencia artificial relacionados con la evaluación del aprendizaje, la admisión a programas educativos o el seguimiento del progreso académico.
En estos casos, los sistemas de IA pueden influir en decisiones que afectan directamente a las oportunidades educativas de los estudiantes, lo que exige mecanismos claros de supervisión y revisión por parte de profesionales.
La supervisión humana no implica rechazar el uso de herramientas algorítmicas. Implica situarlas en el lugar adecuado dentro del proceso de toma de decisiones. Un sistema puede ofrecer indicios, sugerir patrones o señalar posibles dificultades. Pero el análisis pedagógico, la interpretación de esos indicios y la decisión final siguen dependiendo de la experiencia profesional del profesorado y de los criterios educativos de la institución.
Desde esta perspectiva, la introducción de inteligencia artificial en la escuela amplía las fuentes de información disponibles para los docentes, al tiempo que aumenta la importancia de su papel como intérpretes de esa información y responsables últimos de las decisiones que afectan al aprendizaje de los estudiantes.
La Comisión advierte de que determinados usos, especialmente aquellos vinculados a la evaluación del aprendizaje, al acceso a programas educativos o al seguimiento del progreso académico, requieren especial cautela y supervisión.
Tercera lección: preguntar siempre qué datos utiliza el sistema
El hecho de que la inteligencia artificial funcione gracias a datos significa que cualquier debate sobre IA en educación es también un debate sobre qué partes de la vida escolar se convierten en datos, quién los interpreta y con qué fines se utilizan. El informe impulsado por la Comisión Europea insiste especialmente en este punto. Las escuelas manejan una gran diversidad de información sobre estudiantes, familias y docentes, y muchas herramientas digitales generan además un rastro continuo de actividad: clics, tiempos de conexión, secuencias de respuesta o patrones de interacción.
El informe reconoce el valor de esta información, pero introduce una advertencia importante: los datos educativos no son neutros. Para poder analizarlos, el aprendizaje debe traducirse a variables medibles. En ese proceso, aspectos centrales de la experiencia educativa, como el contexto del estudiante, su motivación, la interacción con el docente o la dinámica del aula, pueden quedar fuera del registro digital.
Un sistema puede registrar cuánto tiempo pasa un alumno en una plataforma o qué errores repite con más frecuencia. Estas señales pueden ofrecer indicios útiles, pero no agotan el significado educativo de lo que ocurre. Un tiempo de respuesta largo puede indicar dificultad, reflexión o distracción. Una baja participación puede deberse a falta de comprensión, desmotivación o problemas de acceso. El riesgo no consiste únicamente en recopilar mucha información, sino en atribuir a esos datos un grado de objetividad y precisión mayor del que realmente tienen.
Las orientaciones europeas también llaman la atención sobre otra cuestión clave: quién controla esos datos. Muchos sistemas de IA procesan información generada por estudiantes para mejorar sus modelos, y este proceso puede producirse sin que las instituciones educativas tengan plena claridad sobre qué datos se recopilan, cómo se reutilizan o con qué fines se conservan. Aquí aparece una de las tensiones centrales del ecosistema digital educativo actual: las escuelas generan datos, pero no siempre controlan las infraestructuras que los capturan, los almacenan y los transforman en valor.
La cuestión, por tanto, no se limita a la privacidad. Afecta también a la autonomía institucional. Cuando una escuela adopta una herramienta sin comprender la lógica de sus datos, parte de la capacidad de interpretar el aprendizaje puede desplazarse desde la institución educativa hacia la arquitectura técnica de la plataforma.
El informe introduce además una segunda advertencia: la calidad de los datos condiciona la calidad de las decisiones. Los algoritmos no corrigen automáticamente los sesgos del sistema educativo, aprenden de ellos. Si un modelo se alimenta de datos incompletos o historiales que reflejan desigualdades previas, esas desigualdades pueden reaparecer bajo la apariencia de una recomendación técnica.
En educación, este problema resulta especialmente sensible porque muchas variables que influyen en el aprendizaje son difíciles de medir: la relación con el docente, el clima del aula, la confianza académica o las expectativas institucionales rara vez aparecen con claridad en los registros digitales. Los sistemas de IA operan sobre aquello que pueden medir, y lo que puede medirse tiende a convertirse en lo que cuenta.
Cuarta lección: la alfabetización en inteligencia artificial también es una cuestión ética
La introducción de inteligencia artificial en la escuela suele abordarse desde una perspectiva técnica: qué herramientas existen, cómo utilizarlas o qué competencias digitales deben desarrollar los estudiantes. El informe impulsado por la Comisión Europea sugiere ampliar ese enfoque. La alfabetización en inteligencia artificial no se limita al manejo de aplicaciones. Implica también comprender las implicaciones sociales, éticas y educativas de estos sistemas.
Los sistemas algorítmicos no operan en el vacío. Se diseñan con determinados objetivos, se entrenan con conjuntos de datos concretos y se integran en contextos institucionales que condicionan su funcionamiento. Entender cómo funcionan requiere, por tanto, algo más que saber utilizarlos. Requiere reconocer sus límites, interpretar sus resultados con cautela y comprender que las decisiones generadas por estos sistemas no son neutrales.
La Comisión insiste en que la educación tiene un papel fundamental en este proceso. Los estudiantes no solo interactúan con tecnologías digitales en el aula. Cada vez más, se encuentran rodeados de sistemas que utilizan inteligencia artificial en ámbitos como la información, el consumo cultural o las redes sociales. En este contexto, la escuela adquiere una responsabilidad adicional: ayudar a los alumnos a interpretar críticamente los sistemas algorítmicos que forman parte de su entorno.
Esto implica introducir en la alfabetización digital preguntas que hasta hace poco no formaban parte habitual del currículo escolar. ¿Cómo toman decisiones los sistemas de inteligencia artificial? ¿Qué tipo de datos utilizan? ¿Cuáles son las limitaciones de sus predicciones? ¿Qué significa confiar (o no confiar) en una recomendación generada por un algoritmo?
El informe vincula estas preguntas con un conjunto de principios que deberían guiar el uso de inteligencia artificial en educación: respeto a la dignidad humana, equidad, transparencia, responsabilidad y bienestar de los estudiantes.
Incorporar esta dimensión ética a la alfabetización en IA tiene una consecuencia importante para la escuela. El objetivo no consiste únicamente en preparar a los estudiantes para utilizar nuevas herramientas tecnológicas, sino en formar ciudadanos capaces de comprender cómo operan los sistemas que organizan cada vez más aspectos de la vida social. Desde esta perspectiva, aprender sobre inteligencia artificial significa también aprender a interrogar sus supuestos, reconocer sus límites y participar de forma informada en los debates que acompañan su expansión.
Quinta lección: el papel central del profesorado
El informe de la Comisión Europea subraya que los docentes siguen siendo los actores clave en la toma de decisiones educativas. Las herramientas algorítmicas pueden ofrecer información adicional, detectar patrones en los datos de aprendizaje o generar recomendaciones pedagógicas, pero su integración en la práctica educativa depende del criterio profesional de quienes trabajan en el aula.
Por esto, la adopción de inteligencia artificial en educación requiere de formación docente, debate pedagógico y espacios institucionales de reflexión sobre el uso de estas herramientas. Los profesores son quienes interpretan las recomendaciones que producen los sistemas de IA, quienes valoran su utilidad en contextos concretos de aprendizaje y quienes deciden cómo incorporarlas (o no) en la dinámica del aula.
En este sentido, el papel del profesorado no se limita a utilizar herramientas digitales. Incluye también la responsabilidad de evaluar críticamente su funcionamiento, reconocer sus límites y decidir en qué medida contribuyen realmente a mejorar los procesos de enseñanza y aprendizaje. La presencia creciente de inteligencia artificial en la escuela no reduce la importancia del juicio pedagógico. En muchos casos, la hace todavía más necesaria.
Una decisión crucial
La inteligencia artificial no es una herramienta tecnológica más. Es una nueva forma de producir información sobre el aprendizaje. Esa información puede ser útil. Pero los datos no entienden lo que ocurre en un aula, ni los algoritmos saben qué significa aprender. Así que, lo primero que debemos hacer es decidir qué lugar queremos dar a sistemas que operan exclusivamente con datos en decisiones que siempre han incluido interpretación pedagógica, contexto social y juicio profesional.


