A expansão da IA na educação

Nos últimos meses, a incorporação de ferramentas de inteligência artificial generativa em escolas e sistemas educacionais se acelerou de forma significativa e passou a ocupar um lugar central nas agendas públicas. Governos de diferentes continentes vêm firmando acordos com grandes empresas de tecnologia para introduzir chatbots, tutores virtuais e programas de formação em inteligência artificial em larga escala.
Um artigo recente do New York Times sintetiza bem essa aceleração. Para além dos casos específicos, o padrão se repete: implementações rápidas, programas nacionais ou regionais, parcerias público-privadas e uma narrativa otimista sobre o potencial dessas ferramentas para modernizar o ensino. A IA aparece associada a objetivos reconhecíveis — eficiência, personalização da aprendizagem e redução da carga de trabalho docente — e a uma ideia de futuro que não pode ser ignorada: preparar estudantes para uma economia cada vez mais automatizada.
Esse discurso ganha força porque dialoga com problemas reais. Sistemas educacionais convivem com escassez de recursos, salas de aula superlotadas e professores sobrecarregados. Nesse contexto, a IA surge como uma solução pragmática, capaz de gerar materiais, oferecer feedback imediato e adaptar conteúdos ao ritmo de cada aluno, com custos relativamente baixos e alta capacidade de escala.
No entanto, o foco quase exclusivo na implementação tecnológica deixa em segundo plano uma questão mais fundamental. Em muitos contextos, o debate público já não gira tanto em torno de se a inteligência artificial deve ou não entrar na escola, mas de como fazê-lo. Esse deslocamento acaba deixando de lado uma pergunta central: que tipo de aprendizagem a IA encontra ao ser integrada à sala de aula.
Que práticas pedagógicas ela reforça, quais desloca e quais capacidades tende a tornar dispensáveis. A IA não chega a um espaço vazio; ela se insere em sistemas educacionais já marcados por regras, incentivos e fragilidades anteriores. É aí que começa o verdadeiro debate.
A aprendizagem que já vinha perdendo espaço
Muito antes da chegada da inteligência artificial generativa, a aprendizagem escolar já vinha se orientando cada vez mais para o resultado. O processo — como se pensa, se experimenta, se erra e se reformula — foi perdendo centralidade diante da entrega correta e avaliável. Currículos cada vez mais extensos, avaliações centradas em indicadores mensuráveis e uma pressão constante pelo cumprimento de metas reduziram o espaço para o pensamento lento e a exploração intelectual.
Nesse cenário, o que acontece entre o início de uma tarefa e seu resultado final tornou-se progressivamente invisível. Rascunhos que não contam, erros que não são corrigidos, mas penalizados, ideias que precisam de tempo para amadurecer ou serem reformuladas deixam poucos vestígios em sistemas desenhados para certificar produtos, e não processos. No entanto, é justamente nesse percurso intermediário que se constroem a compreensão profunda, o julgamento próprio e a capacidade de aprender de forma autônoma.
Na prática, a escola já vinha premiando a resposta correta mais do que o raciocínio que a sustenta. A expansão de plataformas digitais, rubricas fechadas e sistemas automatizados de avaliação reforçou essa tendência ao privilegiar o que pode ser quantificado em detrimento do que é cognitivo. Com o tempo, essa lógica consolidou-se como uma forma de gerir sistemas educacionais complexos a partir de critérios de eficiência e comparabilidade.
Como consequência, a incorporação da inteligência artificial ocorre em um contexto em que a aprendizagem já estava fortemente orientada ao resultado final. Nesse cenário, uma tecnologia capaz de gerar respostas plausíveis, bem estruturadas e linguisticamente corretas se integra com facilidade. Em muitas práticas de sala de aula, as tarefas são concebidas para chegar a uma solução, e não para explorar um problema, e as avaliações raramente permitem acompanhar o raciocínio do estudante. A IA não introduziu essa lógica, mas contribui para intensificá-la ao oferecer um atalho eficaz dentro de um sistema que já a favorecia.
Delegar o pensamento: o que muda quando a resposta chega primeiro
A inteligência artificial generativa introduz uma novidade significativa na experiência educacional: a possibilidade de acessar respostas completas, coerentes e verossímeis de forma imediata. Em determinados contextos, isso pode ser útil como apoio — por exemplo, para esclarecer conceitos ou gerar exemplos —, mas também altera a sequência tradicional da aprendizagem. Pela primeira vez, a resposta pode aparecer antes mesmo de o estudante formular plenamente a pergunta.
Essa mudança introduz um risco específico: a delegação cognitiva precoce. Quando o acesso a uma resposta convincente é imediato, parte do esforço mental intermediário — analisar, comparar, duvidar, testar — deixa de ser ativado. Não se trata apenas de copiar, mas de apoiar-se em um raciocínio que não foi construído pelo próprio estudante. O resultado pode estar correto, mas o processo fica externalizado.
As evidências empíricas sobre esses efeitos ainda são limitadas, mas começam a oferecer sinais consistentes que recomendam cautela. Estudos recentes, incluindo pesquisas conduzidas por equipes da Microsoft e da Universidade Carnegie Mellon, sugerem que o uso frequente de chatbots pode reduzir a ativação do pensamento crítico em determinadas tarefas, especialmente quando utilizados como substituto, e não como complemento, do raciocínio próprio. Soma-se a isso a preocupação crescente com a confiança acrítica em respostas geradas por sistemas que, apesar do tom seguro, podem produzir erros ou informações enviesadas.
Ao mesmo tempo, estudos em sala de aula e pesquisas com professores apontam para um aumento do uso instrumental da IA em tarefas escolares: geração de textos, resolução de exercícios ou estruturação de trabalhos sem mediação pedagógica clara. Um relatório recente, por exemplo, indicou que dois em cada três adolescentes utilizam o ChatGPT para tarefas escolares, como redações ou problemas acadêmicos, sugerindo um uso já amplamente disseminado. Pesquisas sobre práticas acadêmicas também indicam que, embora a IA possa economizar tempo e ajudar a iniciar tarefas, pode incentivar certa complacência e reduzir a ativação do pensamento crítico entre estudantes.
A diferença central, portanto, não está entre usar ou não usar IA, mas entre apoiar a aprendizagem e substituir o esforço cognitivo intermediário. O problema não é que a inteligência artificial erre, mas que acerte bem demais e oculte o percurso intelectual que normalmente conduz a uma resposta.
Surge a cautela
A própria reportagem do New York Times mostra que, ao lado do entusiasmo inicial, começam a surgir vozes de cautela. Pesquisadores, docentes e organismos internacionais alertam que uma adoção acelerada e pouco regulada da IA pode produzir efeitos indesejados sobre a aprendizagem. A UNICEF, em sua orientação atualizada sobre inteligência artificial e direitos da infância, destaca que a rápida adoção desses sistemas pode representar riscos caso não sejam construídos marcos institucionais e pedagógicos capazes de proteger os direitos e o bem-estar de crianças e jovens, recomendando políticas que equilibrem oportunidades e salvaguardas.
Esses alertas não surgem do nada. Como lembra o New York Times, a história recente da tecnologia educacional oferece precedentes relevantes. Programas massivos centrados no acesso a dispositivos, como a iniciativa One Laptop per Child, não conseguiram melhorar de forma significativa os resultados de aprendizagem, apesar da magnitude dos investimentos. Essa experiência evidenciou que o acesso tecnológico, por si só, não se traduz necessariamente em melhorias educacionais.
Em resposta a essas preocupações, alguns sistemas educacionais vêm adotando abordagens mais deliberadas. Em vez de priorizar o uso imediato da IA pelos estudantes, colocam o foco na alfabetização em inteligência artificial, na formação docente e no desenho pedagógico. A IA passa, assim, a ser tratada como objeto de aprendizagem — algo a ser compreendido, questionado e avaliado — e não apenas como um atalho para produzir resultados.
Essas experiências não encerram o debate, mas permitem observar com maior clareza as tensões que a IA introduz nos processos de aprendizagem. A questão passa a ser qual modelo de aprendizagem cada abordagem reforça e quais capacidades ficam em segundo plano quando a eficiência se torna o critério dominante.
O que não deveríamos delegar, mesmo podendo
A expansão da inteligência artificial na educação obriga, em última instância, a formular uma pergunta normativa: o que não deveria ser delegado, ainda que a tecnologia permita. Formular boas perguntas, sustentar a dúvida, construir argumentos próprios e aprender com o erro não são habilidades secundárias. Constituem o núcleo da aprendizagem e da formação intelectual dos estudantes.
Essas capacidades não se desenvolvem de forma automática nem eficiente. Exigem tempo, acompanhamento e espaços onde o erro não seja imediatamente penalizado. No entanto, são justamente as mais difíceis de proteger em sistemas educacionais orientados ao desempenho rápido e à avaliação de produtos finais. Se a IA for integrada sem reflexão prévia, corre-se o risco de reforçar essa lógica: respostas corretas, textos coerentes, tarefas concluídas, mas sem vestígios do processo que as sustenta.
Proteger a aprendizagem como processo implica decisões concretas. Na avaliação, significa dar maior peso aos percursos — rascunhos, revisões, argumentações parciais — do que apenas ao resultado final. Na formação docente, exige preparar professores não apenas para utilizar ferramentas de IA, mas para mediar criticamente seu uso em sala de aula. E, no desenho curricular, obriga a perguntar quais aprendizagens exigem fricção, lentidão e esforço, e quais podem se beneficiar do apoio tecnológico sem perder profundidade.
Nesse contexto, a alfabetização em IA não pode ser tratada como um complemento opcional. Compreender como esses sistemas funcionam, quais são seus limites e vieses, e em que contextos seu uso é — ou não — adequado tornou-se uma condição básica para ensinar e aprender. A questão central passa a ser definir com clareza o lugar que essas ferramentas devem ocupar nos processos educacionais.
A inteligência artificial pode apoiar a educação de muitas maneiras. Pode facilitar tarefas, ampliar recursos e aliviar cargas. Mas não pode — nem deve — definir o que significa aprender. Essa continua sendo uma decisão educativa e, portanto, humana.


