La irrupción de la inteligencia artificial (IA) en el ámbito educativo ha traído consigo muchos beneficios. Pero, ¿qué pasa con las emociones? Hasta el momento, el debate público se enfoca en su capacidad para personalizar contenidos, automatizar tareas o mejorar el rendimiento académico, pero la conversación está dejando fuera cuestiones importantes. Por ejemplo, ¿cómo afecta emocionalmente al profesorado y al alumnado esta integración tecnológica? ¿Qué implicaciones sociales y de bienestar se derivan de su uso creciente en las aulas? ¿Puede una tecnología que no siente ayudarnos a cultivar emociones, vínculos y bienestar en el aula?
El Informe ODITE 2025 (Inteligencias conectadas: cómo la IA está redefiniendo el aprendizaje personalizado) alerta sobre esta atención excesiva a los beneficios técnicos de la IA (como la personalización del aprendizaje o sus ventajas operativas) frente a una escasa profundización en los riesgos e incertidumbres, especialmente los de índole socioemocional. Esta descompensación en el análisis pone de manifiesto una necesidad apremiante: repensar el impacto de la IA más allá del rendimiento académico.
Este texto propone mirar más allá de la eficiencia y los datos. Aborda, desde una perspectiva crítica y humana, cómo la IA impacta el bienestar, las relaciones y la experiencia emocional de quienes viven la educación desde dentro: estudiantes y docentes.
Los riesgos deshumanizadores
La entrada de la inteligencia artificial en las aulas no solo modifica las dinámicas pedagógicas. También toca de lleno los aspectos más sensibles de la vida educativa: las emociones, los vínculos y el bienestar de quienes enseñan y aprenden. Así, frente a la narrativa optimista que exalta la personalización y la eficiencia, se alzan voces que advierten sobre los efectos colaterales invisibles que acompañan esta transformación (sin cuestionar la tecnología en sí, sino cómo se usa y con qué fines). El experto en educación y tecnología Carlos Magro, resume y analiza estas posturas en Esta vez sí funcionará, uno de los capítulos del informe de ODITE.
Así, inspirado en autores como Neil Selwyn, Mariana Ferrarelli y Gert Biesta, Magro cuestiona algunas tendencias clave en el uso de la IA en educación:
Es el caso del solucionismo tecnológico (Selwyn), que plantea que todo problema educativo puede resolverse con más tecnología, reduciendo así la complejidad de lo pedagógico a simples fallos técnicos; la falsa personalización basada en datos (Ferrarelli), que simula adaptar el aprendizaje al estudiante, pero en realidad segmenta según patrones de comportamiento, sin considerar la dimensión emocional y social del alumno; y la pérdida del sentido educativo frente a la lógica del rendimiento (Biesta), una crítica a cómo la educación ha dejado de centrarse en el propósito, el vínculo y la formación integral para enfocarse casi exclusivamente en lo medible y eficiente.
Desde esta óptica, la IA no es neutral: modela relaciones, define prioridades y afecta subjetividades. Por eso, propone Magro, pensar su impacto emocional y social exige recuperar una pedagogía del vínculo, en la que estudiantes y docentes no sean usuarios pasivos de tecnología, sino protagonistas conscientes de una educación que no sacrifique el bienestar en nombre de la eficiencia.
Impacto en el bienestar emocional del alumnado
El uso creciente de inteligencia artificial en los entornos escolares está comenzando a dejar huella no solo en los métodos de enseñanza, sino también en la experiencia emocional de los estudiantes. Si bien la IA promete —y en algunos casos ya logra— apoyos significativos en la personalización del aprendizaje, también plantea riesgos que afectan directamente al bienestar emocional y social del alumnado, especialmente cuando se implementa sin una mediación pedagógica crítica y humana.
En este sentido, el informe de ODITE señala, a partir de un metaanálisis de 28 artículos, tres riesgos principales. Estos son: el aislamiento social (la personalización automática, lejos de generar cercanía, puede reforzar trayectorias solitarias, donde el estudiante interactúa más con plataformas que con sus pares o docentes); la dependencia cognitiva (la dependencia de asistentes virtuales para resolver problemas puede también inhibir el desarrollo de habilidades metacognitivas) y el aumento de la ansiedad por rendimiento (cuando la constante medición algorítmica de rendimiento deriva en una presión silenciosa pero persistente).
Sin embargo, cuando la IA se utiliza con intención pedagógica, puede representar una herramienta valiosa para fomentar el bienestar. En el mismo informe, Rosa María de la Fuente muestra ejemplos donde tutores virtuales adaptativos brindan apoyo a estudiantes con necesidades educativas específicas, permitiendo reforzar contenidos a su ritmo y estilo. Estas aplicaciones, en manos de docentes sensibles y formados, se convierten en recursos empáticos que acompañan y no reemplazan, que abren caminos en lugar de imponer trayectorias.
Para que la inteligencia artificial contribuya genuinamente al bienestar emocional del alumnado, debe integrarse desde una pedagogía del cuidado. Es decir, no solo al servicio del rendimiento, sino del reconocimiento, la inclusión y la escucha. Como toda tecnología, su impacto dependerá de las manos (y del corazón) que la implementen.
Los riesgos emocionales de los docentes
La narrativa que rodea la introducción de inteligencia artificial en las aulas suele venir acompañada de una promesa reiterada: liberar al profesorado de tareas repetitivas y administrativas para que pueda centrarse en lo verdaderamente pedagógico. Sin embargo, esta promesa no coincide para nada con la percepción real de quienes habitan las escuelas. Lejos de aligerar la carga, muchos docentes están denunciando una creciente sobrecarga digital que incrementa el estrés, la burocracia y la sensación de agotamiento profesional (burnout), especialmente en contextos de implementación acelerada y sin acompañamiento.
El Informe ODITE 2025 recoge múltiples reflexiones sobre este particular. Por ejemplo, el ya mencionado Carlos Magro afirma que la digitalización ha contribuido a una cultura de la eficiencia que desplaza la reflexión pedagógica y aumenta las exigencias técnicas sobre el profesorado, generando “escuelas más conectadas, pero menos humanas”.
Otra consecuencia destacada por Magro es la pérdida de agencia pedagógica. Cuando las decisiones sobre qué, cómo y cuándo enseñar comienzan a ser delegadas a plataformas automatizadas, los docentes pueden sentirse despojados de su rol como guías críticos del proceso educativo.
El reto, por tanto, no es solo técnico, sino profundamente profesional. Estamos hablando de preservar y fortalecer la profesión docente. La IA no puede convertirse en una solución prefabricada que debilite el criterio de estos profesionales de la enseñanza. Muy al contrario: su incorporación debe fortalecer la figura del profesorado como actor clave del sistema educativo, garantizando que cuente con el tiempo, los recursos y la formación necesarios para ejercer su labor con autonomía, sentido y cuidado.
Una tecnología que no mejora la capacidad de sentir, comprender y acompañar, difícilmente puede considerarse educativa.
¿Cómo hacerlo bien?
Hasta aquí, los riesgos emocionales y sociales del uso de inteligencia artificial en la educación. Pero aunque estos riesgos existen y debeos conocerlos, no es menos cierto que la capacidad transformadora de esta tecnología, cuando se implementa desde una perspectiva ética, humana y pedagógica, es irrefutable. Por eso, y como hemos sostenido siempre en este Observatorio, lejos de rechazar la tecnología, lo que debemos hacer es integrarla con sentido, para asegurarnos de que sirve al desarrollo integral de estudiantes y docentes.
¿Cuáles son las condiciones que garantizan una adopción consciente y saludable de la tecnología? En el Informe ODITE los expertos señalan algunas que hemos recopilado a continuación:
Formación docente
La primera de estas condiciones es la formación docente, no solo en el uso técnico de herramientas de IA, sino en competencias digitales críticas. Es urgente que el profesorado sea capaz de comprender el funcionamiento, los sesgos y los límites de estas tecnologías, al mismo tiempo que se le brinda apoyo para cuidar su propio bienestar emocional. Como señalan autores como Liliana Arroyo y Miquel Àngel Prats, la alfabetización en IA debe ir acompañada de un enfoque ético y emocional, que devuelva al docente su papel como mediador humano, no como operador de sistemas automatizados.
Políticas educativas para la autonomía pedagógica
En segundo lugar, se requiere el diseño de políticas educativas que protejan la autonomía pedagógica. La toma de decisiones en el aula no puede quedar subordinada a los dictados de plataformas comerciales ni a indicadores generados por algoritmos opacos. Las administraciones deben definir marcos regulatorios que prioricen la protección de datos, la equidad en el acceso y la participación docente en la selección e implementación de sistemas de IA.
Acompañamiento emocional y humano en los procesos de transformación digital
Otra condición imprescindible es el acompañamiento emocional y humano en los procesos de transformación digital. El informe subraya que la integración de tecnologías basadas en IA no puede abordarse únicamente como una transición técnica, sino como un cambio cultural profundo que requiere liderazgo pedagógico, escucha activa y gestión del malestar docente. La resistencia al cambio, cuando se ignora, puede derivar en rechazo o burnout; cuando se atiende, se transforma en una oportunidad para la innovación consciente.
Uso progresivo, guiado y crítico de la IA por parte del alumnado
Inspirándose en modelos como el de Frey y Fisher, se propone una secuencia en la que el estudiante pase del uso asistido a una autonomía responsable, siempre con mediación docente. Este enfoque permite desarrollar pensamiento crítico, evitar la dependencia algorítmica y fortalecer la autorregulación emocional.
Por último, el informe insiste en que el éxito de la IA en educación no depende de la herramienta, sino del modelo pedagógico que la guía. Como afirma Neus Lorenzo, no basta con “poner IA en el aula”; es necesario diseñar experiencias educativas con intención, con un marco ético y con apoyo técnico adecuado. Las experiencias más inspiradoras recogidas en el informe tienen un rasgo común: ponen a las personas en el centro, y entienden la tecnología como un medio para fortalecer, no reemplazar, los vínculos humanos.
Una integración saludable y crítica de la inteligencia artificial solo será posible si se toma como un proyecto pedagógico, no como una moda ni como una solución automática. La IA puede aportar mucho, sí, pero su valor educativo dependerá siempre de quién, cómo y para qué la utilice. Y en esa ecuación, el criterio profesional, el cuidado y la conciencia seguirán siendo insustituibles.
Una IA que nos enseñe humanidad
La pregunta que hoy debería guiarnos no es si debemos usar inteligencia artificial en educación, sino cómo la usamos sin perder de vista a quienes educan y aprenden. La IA no es solo una herramienta: es una tecnología con capacidad para reconfigurar nuestras relaciones, nuestras emociones y nuestras formas de comprender el aprendizaje. Por eso, más que adaptar la escuela a la IA, necesitamos adaptar la IA a la escuela. Y eso implica un giro radical: poner el cuidado, la escucha y el bienestar en el centro de la innovación.
El desafío, por tanto, no está en lo técnico sino en lo pedagógico y en lo ético. ¿Podemos enseñar con IA sin reducir la experiencia educativa a una secuencia de datos? ¿Podemos automatizar tareas sin automatizar vínculos? ¿Estamos dispuestos a formar docentes no solo como usuarios de sistemas, sino como una especie de “curadores de humanidad” en tiempos algorítmicos?
La IA será transformadora en la medida en que sepamos usarla para amplificar lo humano, no para reemplazarlo. Porque una tecnología que no mejora la capacidad de sentir, comprender y acompañar, difícilmente puede considerarse educativa. En este dilema, el papel de docentes, comunidades escolares y políticas públicas será determinante. No para decidir si la IA entra o no en la escuela, sino para asegurar que, al hacerlo, no se lleve por delante lo que nos hace profundamente humanos.