A chegada da inteligência artificial (IA) ao campo educacional trouxe muitos benefícios. Mas, e as emoções? Até agora, o debate público tem se concentrado em sua capacidade de personalizar conteúdos, automatizar tarefas ou melhorar o desempenho acadêmico, mas a conversa tem deixado de lado questões importantes. Por exemplo: como essa integração tecnológica afeta emocionalmente professores e alunos? Quais implicações sociais e de bem-estar decorrem de seu uso crescente nas salas de aula? Uma tecnologia que não sente pode nos ajudar a cultivar emoções, vínculos e bem-estar na escola?
O Relatório ODITE 2025 (Inteligências conectadas: como a IA está redefinindo a aprendizagem personalizada) alerta sobre o foco excessivo nos benefícios técnicos da IA (como a personalização da aprendizagem ou suas vantagens operacionais), em detrimento de uma análise mais profunda dos riscos e incertezas, especialmente os de natureza socioemocional. Esse desequilíbrio na análise revela uma necessidade urgente: repensar o impacto da IA para além do rendimento acadêmico.
Este texto propõe um olhar que vá além da eficiência e dos dados. Aborda, a partir de uma perspectiva crítica e humana, como a IA impacta o bem-estar, as relações e a experiência emocional de quem vive a educação por dentro: estudantes e professores.
Os riscos desumanizantes
A entrada da inteligência artificial nas salas de aula não modifica apenas as dinâmicas pedagógicas. Ela atinge em cheio os aspectos mais sensíveis da vida escolar: as emoções, os vínculos e o bem-estar de quem ensina e aprende. Assim, frente à narrativa otimista que exalta a personalização e a eficiência, surgem vozes que alertam sobre os efeitos colaterais invisíveis que acompanham essa transformação (sem questionar a tecnologia em si, mas como ela é usada e com quais propósitos). O especialista em educação e tecnologia Carlos Magro resume e analisa essas posturas em Desta vez vai funcionar, um dos capítulos do relatório ODITE.
Inspirado por autores como Neil Selwyn, Mariana Ferrarelli e Gert Biesta, Magro questiona algumas tendências-chave no uso da IA na educação.
Como o solucionismo tecnológico (Selwyn), que acredita que todos os problemas educacionais podem ser resolvidos com mais tecnologia, reduzindo a complexidade pedagógica a falhas técnicas; a falsa personalização baseada em dados (Ferrarelli), que simula adaptar a aprendizagem ao estudante, mas na prática apenas segmenta com base em padrões de comportamento, ignorando a dimensão emocional e social do aluno; e a perda do sentido educativo diante da lógica do desempenho (Biesta), uma crítica à forma como a educação deixou de focar em propósito, vínculo e formação integral, concentrando-se quase exclusivamente no que é mensurável e eficiente.
Sob essa ótica, a IA não é neutra: ela molda relações, define prioridades e afeta subjetividades. Por isso, propõe Magro, pensar seu impacto emocional e social exige recuperar uma pedagogia do vínculo, em que estudantes e professores não sejam usuários passivos da tecnologia, mas protagonistas conscientes de uma educação que não sacrifique o bem-estar em nome da eficiência.
Impacto no bem-estar emocional dos estudantes
O uso crescente da inteligência artificial nos ambientes escolares começa a deixar marcas não apenas nos métodos de ensino, mas também na experiência emocional dos estudantes. Embora a IA prometa — e em alguns casos já ofereça — apoios significativos na personalização da aprendizagem, também levanta riscos que afetam diretamente o bem-estar emocional e social dos alunos, especialmente quando implementada sem uma mediação pedagógica crítica e humana.
Nesse sentido, o relatório ODITE destaca, a partir de uma metanálise de 28 artigos, três riscos principais. São eles: o isolamento social (a personalização automática, longe de aproximar, pode reforçar trajetórias solitárias, onde o estudante interage mais com plataformas do que com colegas ou professores); a dependência cognitiva (a dependência de assistentes virtuais para resolver problemas pode inibir o desenvolvimento de habilidades metacognitivas); e o aumento da ansiedade por desempenho (quando a medição algorítmica constante do rendimento gera uma pressão silenciosa, porém persistente).
No entanto, quando usada com intencionalidade pedagógica, a IA pode representar uma ferramenta valiosa para promover o bem-estar. No mesmo relatório, Rosa María de la Fuente apresenta exemplos em que tutores virtuais adaptativos oferecem suporte a estudantes com necessidades educacionais específicas, permitindo reforçar conteúdos no próprio ritmo e estilo do aluno. Essas aplicações, nas mãos de professores sensíveis e capacitados, tornam-se recursos empáticos que acompanham em vez de substituir, que abrem caminhos ao invés de impor trilhas.
Para que a inteligência artificial contribua genuinamente para o bem-estar emocional dos estudantes, ela deve ser integrada a partir de uma pedagogia do cuidado. Ou seja, não apenas a serviço do desempenho, mas também do reconhecimento, da inclusão e da escuta. Como toda tecnologia, seu impacto dependerá das mãos (e do coração) que a implementarem.
Os riscos emocionais para os professores
A narrativa em torno da introdução da inteligência artificial nas salas de aula costuma vir acompanhada de uma promessa repetida: libertar os professores de tarefas repetitivas e administrativas para que possam se concentrar no que é verdadeiramente pedagógico. No entanto, essa promessa está longe da percepção real de quem vive o cotidiano escolar. Longe de aliviar a carga, muitos docentes denunciam uma crescente sobrecarga digital que aumenta o estresse, a burocracia e a sensação de exaustão profissional (burnout), especialmente em contextos de implementação acelerada e sem apoio adequado.
O Relatório ODITE 2025 reúne múltiplas reflexões sobre esse ponto. Por exemplo, o já mencionado Carlos Magro afirma que a digitalização contribuiu para uma cultura da eficiência que desloca a reflexão pedagógica e aumenta as exigências técnicas sobre os professores, gerando “escolas mais conectadas, mas menos humanas”.
Outra consequência apontada por Magro é a perda da autonomia pedagógica. Quando as decisões sobre o que, como e quando ensinar passam a ser delegadas a plataformas automatizadas, os docentes podem se sentir destituídos de seu papel como guias críticos do processo educacional.
O desafio, portanto, não é apenas técnico, mas profundamente profissional. Trata-se de preservar e fortalecer a profissão docente. A IA não pode se tornar uma solução pronta que enfraqueça o discernimento desses profissionais da educação. Pelo contrário: sua incorporação deve reforçar a figura do professor como ator-chave do sistema educacional, garantindo-lhe tempo, recursos e formação adequados para exercer sua função com autonomia, sentido e cuidado.
Uma tecnologia que não melhora nossa capacidade de sentir, compreender e acompanhar dificilmente pode ser considerada educativa.
Como fazer da forma certa?
Até aqui, discutimos os riscos emocionais e sociais do uso da inteligência artificial na educação. Mas, embora esses riscos existam e devam ser reconhecidos, também é verdade que a capacidade transformadora dessa tecnologia — quando implementada sob uma perspectiva ética, humana e pedagógica — é inegável. Por isso, como sempre defendemos neste Observatório, longe de rejeitar a tecnologia, o que devemos fazer é integrá-la com sentido, para garantir que ela sirva ao desenvolvimento integral de estudantes e professores.
Quais são as condições que garantem uma adoção consciente e saudável da tecnologia? No Relatório ODITE, especialistas apontam algumas, que reunimos a seguir:
A primeira dessas condições é a formação docente, não apenas no uso técnico das ferramentas de IA, mas em competências digitais críticas. É urgente que os professores sejam capazes de compreender o funcionamento, os vieses e os limites dessas tecnologias, ao mesmo tempo em que recebam apoio para cuidar de seu próprio bem-estar emocional. Como afirmam autores como Liliana Arroyo e Miquel Àngel Prats, a alfabetização em IA deve vir acompanhada de uma abordagem ética e emocional, que devolva ao professor seu papel como mediador humano — e não como operador de sistemas automatizados.
Em segundo lugar, é necessário o desenho de políticas educacionais que protejam a autonomia pedagógica. As decisões dentro da sala de aula não podem ficar subordinadas aos ditames de plataformas comerciais nem a indicadores gerados por algoritmos opacos. As administrações devem definir marcos regulatórios que priorizem a proteção de dados, a equidade no acesso e a participação docente na escolha e implementação de sistemas de IA.
Outra condição imprescindível é o acompanhamento emocional e humano nos processos de transformação digital. O relatório destaca que a integração de tecnologias baseadas em IA não pode ser tratada apenas como uma transição técnica, mas como uma mudança cultural profunda, que exige liderança pedagógica, escuta ativa e gestão do mal-estar docente. A resistência à mudança, quando ignorada, pode resultar em rejeição ou burnout; quando acolhida, transforma-se em oportunidade de inovação consciente.
Também se destaca a necessidade de promover um uso progressivo, guiado e crítico da IA por parte dos estudantes. Inspirando-se em modelos como o de Frey e Fisher, propõe-se uma sequência em que o aluno passa do uso assistido à autonomia responsável, sempre com mediação docente. Essa abordagem permite desenvolver o pensamento crítico, evitar a dependência algorítmica e fortalecer a autorregulação emocional.
Por fim, o relatório insiste que o sucesso da IA na educação não depende da ferramenta, mas do modelo pedagógico que a orienta. Como afirma Neus Lorenzo, não basta “colocar IA na sala de aula”; é necessário desenhar experiências educativas com intencionalidade, com um marco ético e com apoio técnico adequado. As experiências mais inspiradoras citadas no relatório têm um traço em comum: colocam as pessoas no centro e compreendem a tecnologia como meio de fortalecimento — não substituição — dos vínculos humanos.
Uma integração saudável e crítica da inteligência artificial só será possível se for encarada como um projeto pedagógico, e não como uma moda ou uma solução automática. A IA pode contribuir muito, sim, mas seu valor educacional dependerá sempre de quem a utiliza, como e com que propósito. E nessa equação, o critério profissional, o cuidado e a consciência continuarão sendo insubstituíveis.
Uma IA que nos ensine humanidade
A pergunta que deve nos guiar hoje não é se devemos usar inteligência artificial na educação, mas como usá-la sem perder de vista quem ensina e quem aprende. A IA não é apenas uma ferramenta — é uma tecnologia com capacidade de reconfigurar nossas relações, nossas emoções e nossas formas de compreender a aprendizagem. Por isso, mais do que adaptar a escola à IA, precisamos adaptar a IA à escola. E isso implica uma mudança radical: colocar o cuidado, a escuta e o bem-estar no centro da inovação.
O desafio, portanto, não é técnico, mas pedagógico e ético. Podemos ensinar com IA sem reduzir a experiência educativa a uma sequência de dados? Podemos automatizar tarefas sem automatizar vínculos? Estamos dispostos a formar docentes não apenas como usuários de sistemas, mas como uma espécie de “curadores da humanidade” em tempos algorítmicos?
A IA será transformadora na medida em que soubermos usá-la para amplificar o que é humano — e não para substituí-lo. Porque uma tecnologia que não melhora nossa capacidade de sentir, compreender e acompanhar dificilmente pode ser considerada educativa. Diante desse dilema, o papel dos professores, das comunidades escolares e das políticas públicas será determinante — não para decidir se a IA entra ou não na escola, mas para garantir que, ao fazê-lo, não leve embora o que nos torna profundamente humanos.