A inteligência artificial e seu impacto no bem-estar emocional na escola

A integração da inteligência artificial na educação está modificando a forma como aprendemos e ensinamos. Mas, para além dos avanços tecnológicos, surgem algumas perguntas sobre seu impacto emocional e social. Como a IA afeta o bem-estar de estudantes e professores? Uma ferramenta que promete personalização pode acabar gerando pressão, ansiedade ou desconexão? Este artigo analisa as implicações socioemocionais da IA educacional, com um olhar crítico, dados recentes e propostas para uma implementação consciente.

A inteligência artificial e seu impacto no bem-estar emocional na escola

A chegada da inteligência artificial (IA) ao campo educacional trouxe muitos benefícios. Mas, e as emoções? Até agora, o debate público tem se concentrado em sua capacidade de personalizar conteúdos, automatizar tarefas ou melhorar o desempenho acadêmico, mas a conversa tem deixado de lado questões importantes. Por exemplo: como essa integração tecnológica afeta emocionalmente professores e alunos? Quais implicações sociais e de bem-estar decorrem de seu uso crescente nas salas de aula? Uma tecnologia que não sente pode nos ajudar a cultivar emoções, vínculos e bem-estar na escola?

O Relatório ODITE 2025 (Inteligências conectadas: como a IA está redefinindo a aprendizagem personalizada) alerta sobre o foco excessivo nos benefícios técnicos da IA (como a personalização da aprendizagem ou suas vantagens operacionais), em detrimento de uma análise mais profunda dos riscos e incertezas, especialmente os de natureza socioemocional. Esse desequilíbrio na análise revela uma necessidade urgente: repensar o impacto da IA para além do rendimento acadêmico.

Este texto propõe um olhar que vá além da eficiência e dos dados. Aborda, a partir de uma perspectiva crítica e humana, como a IA impacta o bem-estar, as relações e a experiência emocional de quem vive a educação por dentro: estudantes e professores.

Os riscos desumanizantes

IA y bienestar emocional

A entrada da inteligência artificial nas salas de aula não modifica apenas as dinâmicas pedagógicas. Ela atinge em cheio os aspectos mais sensíveis da vida escolar: as emoções, os vínculos e o bem-estar de quem ensina e aprende. Assim, frente à narrativa otimista que exalta a personalização e a eficiência, surgem vozes que alertam sobre os efeitos colaterais invisíveis que acompanham essa transformação (sem questionar a tecnologia em si, mas como ela é usada e com quais propósitos). O especialista em educação e tecnologia Carlos Magro resume e analisa essas posturas em Desta vez vai funcionar, um dos capítulos do relatório ODITE.

Inspirado por autores como Neil Selwyn, Mariana Ferrarelli e Gert Biesta, Magro questiona algumas tendências-chave no uso da IA na educação.

Como o solucionismo tecnológico (Selwyn), que acredita que todos os problemas educacionais podem ser resolvidos com mais tecnologia, reduzindo a complexidade pedagógica a falhas técnicas; a falsa personalização baseada em dados (Ferrarelli), que simula adaptar a aprendizagem ao estudante, mas na prática apenas segmenta com base em padrões de comportamento, ignorando a dimensão emocional e social do aluno; e a perda do sentido educativo diante da lógica do desempenho (Biesta), uma crítica à forma como a educação deixou de focar em propósito, vínculo e formação integral, concentrando-se quase exclusivamente no que é mensurável e eficiente.

Sob essa ótica, a IA não é neutra: ela molda relações, define prioridades e afeta subjetividades. Por isso, propõe Magro, pensar seu impacto emocional e social exige recuperar uma pedagogia do vínculo, em que estudantes e professores não sejam usuários passivos da tecnologia, mas protagonistas conscientes de uma educação que não sacrifique o bem-estar em nome da eficiência.

Impacto no bem-estar emocional dos estudantes

O uso crescente da inteligência artificial nos ambientes escolares começa a deixar marcas não apenas nos métodos de ensino, mas também na experiência emocional dos estudantes. Embora a IA prometa — e em alguns casos já ofereça — apoios significativos na personalização da aprendizagem, também levanta riscos que afetam diretamente o bem-estar emocional e social dos alunos, especialmente quando implementada sem uma mediação pedagógica crítica e humana.

Nesse sentido, o relatório ODITE destaca, a partir de uma metanálise de 28 artigos, três riscos principais. São eles: o isolamento social (a personalização automática, longe de aproximar, pode reforçar trajetórias solitárias, onde o estudante interage mais com plataformas do que com colegas ou professores); a dependência cognitiva (a dependência de assistentes virtuais para resolver problemas pode inibir o desenvolvimento de habilidades metacognitivas); e o aumento da ansiedade por desempenho (quando a medição algorítmica constante do rendimento gera uma pressão silenciosa, porém persistente).

No entanto, quando usada com intencionalidade pedagógica, a IA pode representar uma ferramenta valiosa para promover o bem-estar. No mesmo relatório, Rosa María de la Fuente apresenta exemplos em que tutores virtuais adaptativos oferecem suporte a estudantes com necessidades educacionais específicas, permitindo reforçar conteúdos no próprio ritmo e estilo do aluno. Essas aplicações, nas mãos de professores sensíveis e capacitados, tornam-se recursos empáticos que acompanham em vez de substituir, que abrem caminhos ao invés de impor trilhas.

Para que a inteligência artificial contribua genuinamente para o bem-estar emocional dos estudantes, ela deve ser integrada a partir de uma pedagogia do cuidado. Ou seja, não apenas a serviço do desempenho, mas também do reconhecimento, da inclusão e da escuta. Como toda tecnologia, seu impacto dependerá das mãos (e do coração) que a implementarem.

Os riscos emocionais para os professores

A narrativa em torno da introdução da inteligência artificial nas salas de aula costuma vir acompanhada de uma promessa repetida: libertar os professores de tarefas repetitivas e administrativas para que possam se concentrar no que é verdadeiramente pedagógico. No entanto, essa promessa está longe da percepção real de quem vive o cotidiano escolar. Longe de aliviar a carga, muitos docentes denunciam uma crescente sobrecarga digital que aumenta o estresse, a burocracia e a sensação de exaustão profissional (burnout), especialmente em contextos de implementação acelerada e sem apoio adequado.

O Relatório ODITE 2025 reúne múltiplas reflexões sobre esse ponto. Por exemplo, o já mencionado Carlos Magro afirma que a digitalização contribuiu para uma cultura da eficiência que desloca a reflexão pedagógica e aumenta as exigências técnicas sobre os professores, gerando “escolas mais conectadas, mas menos humanas”.

Outra consequência apontada por Magro é a perda da autonomia pedagógica. Quando as decisões sobre o que, como e quando ensinar passam a ser delegadas a plataformas automatizadas, os docentes podem se sentir destituídos de seu papel como guias críticos do processo educacional.

O desafio, portanto, não é apenas técnico, mas profundamente profissional. Trata-se de preservar e fortalecer a profissão docente. A IA não pode se tornar uma solução pronta que enfraqueça o discernimento desses profissionais da educação. Pelo contrário: sua incorporação deve reforçar a figura do professor como ator-chave do sistema educacional, garantindo-lhe tempo, recursos e formação adequados para exercer sua função com autonomia, sentido e cuidado.

Uma tecnologia que não melhora nossa capacidade de sentir, compreender e acompanhar dificilmente pode ser considerada educativa.

Como fazer da forma certa?

Até aqui, discutimos os riscos emocionais e sociais do uso da inteligência artificial na educação. Mas, embora esses riscos existam e devam ser reconhecidos, também é verdade que a capacidade transformadora dessa tecnologia — quando implementada sob uma perspectiva ética, humana e pedagógica — é inegável. Por isso, como sempre defendemos neste Observatório, longe de rejeitar a tecnologia, o que devemos fazer é integrá-la com sentido, para garantir que ela sirva ao desenvolvimento integral de estudantes e professores.

Quais são as condições que garantem uma adoção consciente e saudável da tecnologia? No Relatório ODITE, especialistas apontam algumas, que reunimos a seguir:

A primeira dessas condições é a formação docente, não apenas no uso técnico das ferramentas de IA, mas em competências digitais críticas. É urgente que os professores sejam capazes de compreender o funcionamento, os vieses e os limites dessas tecnologias, ao mesmo tempo em que recebam apoio para cuidar de seu próprio bem-estar emocional. Como afirmam autores como Liliana Arroyo e Miquel Àngel Prats, a alfabetização em IA deve vir acompanhada de uma abordagem ética e emocional, que devolva ao professor seu papel como mediador humano — e não como operador de sistemas automatizados.

Em segundo lugar, é necessário o desenho de políticas educacionais que protejam a autonomia pedagógica. As decisões dentro da sala de aula não podem ficar subordinadas aos ditames de plataformas comerciais nem a indicadores gerados por algoritmos opacos. As administrações devem definir marcos regulatórios que priorizem a proteção de dados, a equidade no acesso e a participação docente na escolha e implementação de sistemas de IA.

Outra condição imprescindível é o acompanhamento emocional e humano nos processos de transformação digital. O relatório destaca que a integração de tecnologias baseadas em IA não pode ser tratada apenas como uma transição técnica, mas como uma mudança cultural profunda, que exige liderança pedagógica, escuta ativa e gestão do mal-estar docente. A resistência à mudança, quando ignorada, pode resultar em rejeição ou burnout; quando acolhida, transforma-se em oportunidade de inovação consciente.

Também se destaca a necessidade de promover um uso progressivo, guiado e crítico da IA por parte dos estudantes. Inspirando-se em modelos como o de Frey e Fisher, propõe-se uma sequência em que o aluno passa do uso assistido à autonomia responsável, sempre com mediação docente. Essa abordagem permite desenvolver o pensamento crítico, evitar a dependência algorítmica e fortalecer a autorregulação emocional.

Por fim, o relatório insiste que o sucesso da IA na educação não depende da ferramenta, mas do modelo pedagógico que a orienta. Como afirma Neus Lorenzo, não basta “colocar IA na sala de aula”; é necessário desenhar experiências educativas com intencionalidade, com um marco ético e com apoio técnico adequado. As experiências mais inspiradoras citadas no relatório têm um traço em comum: colocam as pessoas no centro e compreendem a tecnologia como meio de fortalecimento — não substituição — dos vínculos humanos.

Uma integração saudável e crítica da inteligência artificial só será possível se for encarada como um projeto pedagógico, e não como uma moda ou uma solução automática. A IA pode contribuir muito, sim, mas seu valor educacional dependerá sempre de quem a utiliza, como e com que propósito. E nessa equação, o critério profissional, o cuidado e a consciência continuarão sendo insubstituíveis.

Uma IA que nos ensine humanidade

A pergunta que deve nos guiar hoje não é se devemos usar inteligência artificial na educação, mas como usá-la sem perder de vista quem ensina e quem aprende. A IA não é apenas uma ferramenta — é uma tecnologia com capacidade de reconfigurar nossas relações, nossas emoções e nossas formas de compreender a aprendizagem. Por isso, mais do que adaptar a escola à IA, precisamos adaptar a IA à escola. E isso implica uma mudança radical: colocar o cuidado, a escuta e o bem-estar no centro da inovação.

O desafio, portanto, não é técnico, mas pedagógico e ético. Podemos ensinar com IA sem reduzir a experiência educativa a uma sequência de dados? Podemos automatizar tarefas sem automatizar vínculos? Estamos dispostos a formar docentes não apenas como usuários de sistemas, mas como uma espécie de “curadores da humanidade” em tempos algorítmicos?

A IA será transformadora na medida em que soubermos usá-la para amplificar o que é humano — e não para substituí-lo. Porque uma tecnologia que não melhora nossa capacidade de sentir, compreender e acompanhar dificilmente pode ser considerada educativa. Diante desse dilema, o papel dos professores, das comunidades escolares e das políticas públicas será determinante — não para decidir se a IA entra ou não na escola, mas para garantir que, ao fazê-lo, não leve embora o que nos torna profundamente humanos.

Você também pode estar interessado em…