Aprender na Era da Delegação Cognitiva

¿Qué ocurre con el aprendizaje cuando obtener una respuesta deja de requerir esfuerzo? ¿Qué sucede cuando parte del trabajo intelectual que antes sostenía el aprendizaje puede delegarse? El informe A New Direction for Students in an AI World, elaborado por el Center for Universal Education de Brookings tras un año de investigación global, parte de esa inquietud y concluye que, hoy por hoy, los riesgos pesan más que las ventajas en lo que se refiere al uso que se está haciendo de la IA en educación. Pero tranquilos: hay esperanza. Los autores de la investigación también proponen un marco para enderezar el rumbo.

Aprender na Era da Delegação Cognitiva

Brookings on AIA preocupação que deu origem a este estudo não foi uma hipótese acadêmica abstrata. Foi um padrão empírico que surgiu repetidamente em conversas com professores, estudantes e famílias: a IA generativa está sendo incorporada à aprendizagem em um ritmo que ultrapassa a capacidade dos sistemas educacionais de compreender suas implicações. Em muitos contextos, o uso precede a política, e a prática precede a deliberação.

Diferentemente de ondas anteriores de inovação educacional — plataformas, dispositivos, conteúdos digitais — a IA generativa faz mais do que ampliar o acesso ou distribuir materiais. Ela intervém na própria produção do trabalho intelectual. Pode redigir textos, estruturar argumentos, formular hipóteses, resolver equações ou sintetizar informações complexas. No contexto escolar, esses não são apenas passos rumo a uma resposta; são os próprios processos por meio dos quais capacidades são desenvolvidas.

A equipe de pesquisadores — Mary Burns, Rebeca Winthrop, Natasha Luther, Emma Venetis e Rida Katim — adotou, portanto, uma abordagem preventiva. Em vez de esperar que efeitos positivos ou negativos se consolidassem, o relatório buscou identificar riscos plausíveis antes que determinadas práticas se tornassem normalizadas. A metodologia — mais de 500 entrevistas e grupos focais em 50 países, revisão de 400 estudos e um painel Delphi internacional — não teve como objetivo medir impacto imediato, mas mapear trajetórias possíveis.

A conclusão é direta: neste momento, os riscos da IA generativa na educação superam seus benefícios. Não porque a tecnologia seja intrinsecamente prejudicial, mas porque sua integração está ocorrendo sem marcos pedagógicos e salvaguardas suficientemente desenvolvidos — e porque afeta dimensões que vão além do desempenho acadêmico.

O que a IA pode contribuir para a aprendizagem

Falar sobre os benefícios da IA na educação exige equilíbrio. Exige conter tanto o entusiasmo acrítico quanto o ceticismo automático. Nas entrevistas, os professores não descreveram a IA como uma revolução escolar. Descreveram-na como a abertura de pequenas, mas significativas, possibilidades dentro da prática cotidiana.

A primeira área em que a IA demonstra vantagens claras é a personalização. Não se trata da antiga promessa da aprendizagem adaptativa que raramente se concretizou. As novas plataformas, alimentadas por modelos generativos e sistemas preditivos, fazem mais do que ajustar níveis de dificuldade. Elas identificam padrões, detectam erros recorrentes e reformulam explicações em tempo real. Para muitos professores, esse nível de responsividade parece quase aspiracional — atender à diversidade sem se dividir em trinta partes. Em contextos com poucos recursos, nos quais um único professor atende mais de 50 alunos, o potencial é ainda maior: a IA pode criar microespaços de tutoria que antes eram inviáveis.

Uma segunda contribuição está na acessibilidade. O relatório documenta usos que vão além de casos isolados: sistemas de voz sintética que permitem que crianças com dificuldades de fala se comuniquem com vozes semelhantes às suas; ferramentas de anotação inteligente para estudantes com dislexia; leitura assistida e materiais diferenciados para alunos que aprendem em uma segunda língua. Essas ferramentas não substituem especialistas, mas ampliam seu alcance — especialmente em sistemas onde o atendimento especializado é limitado ou inexistente.

Uma terceira contribuição, menos visível, mas de relevância sistêmica, envolve o tempo docente. Quando alguns educadores se referem à IA como sua “colega favorita”, não se trata de fantasia tecnológica. Planejar aulas, corrigir atividades, elaborar materiais e redigir relatórios consome horas que não são dedicadas ao ensino. Ensaios controlados citados no relatório indicam reduções de até 31% no tempo de preparação de aulas sem perda de qualidade. Se protegida institucionalmente, essa economia de tempo pode ser reinvestida em conversa, feedback e presença humana.

A IA também pode desempenhar um papel crítico em contextos de vulnerabilidade e exclusão educacional. O estudo inclui casos como o de meninas afegãs, privadas do acesso à educação presencial, que recebem conteúdos curriculares por meio do WhatsApp e tutores automatizados. Não é um modelo ideal de escolarização. Mas, em determinados contextos, é a diferença entre aprender algo e não aprender nada.

Por fim, quando integrada com intenção pedagógica clara, a IA pode ampliar a capacidade humana. Não torna os estudantes mais inteligentes — essa continua sendo uma tarefa dos próprios alunos e professores. Mas pode reduzir a carga cognitiva inicial, criar espaço mental e permitir que os aprendizes se concentrem em interpretar, relacionar e questionar.

Ainda assim, as evidências são consistentes em um ponto: esses benefícios emergem apenas quando a IA funciona como extensão, e não como substituição. Quando está integrada a práticas pedagógicas sólidas, e não utilizada como atalho, a IA pode fortalecer a aprendizagem. Reconhecer seu potencial não é evangelização tecnológica. É um passo necessário para definir o que deve ser preservado, o que pode evoluir e o que não deve ser delegado.

Quando a tecnologia afeta o desenvolvimento

Se havia dúvidas iniciais sobre onde residia a maior preocupação, as entrevistas as dissiparam. O risco central não é que a IA falhe, mas que funcione bem demais — que execute tarefas com tanta eficiência que passe de ferramenta a prótese cognitiva. Essa preocupação apareceu repetidamente entre pais, professores e estudantes.

A delegação precoce do pensamento foi o primeiro padrão observado. Professores de diferentes países relataram cenas semelhantes: alunos que deixam de tentar resolver problemas por conta própria e passam a formular comandos diretamente ao chatbot. A questão não é a desonestidade acadêmica — isso não é novidade — mas a rapidez com que o ato de “pensar” se externaliza e a naturalidade com que essa mudança é aceita. Muitos estudantes reconheceram que o uso da IA os tornava mais passivos, confiando que o sistema produziria respostas precisas sem esforço sustentado.

A consequência imediata é a dependência. Os alunos percebem melhora nas notas, economia de tempo e redução da frustração. Com o tempo, isso cria um ciclo incompatível com o desenvolvimento cognitivo: quanto mais se delega, menos se exercita; quanto menos se exercita, mais se delega. O relatório menciona conceitos como “dívida cognitiva” e “atrofia cognitiva” para descrever essa erosão gradual: quando a ferramenta assume a carga mental, o cérebro a abandona.

Essa erosão vai além do pensamento abstrato e alcança a motivação. Professores relataram quedas na curiosidade. Quando respostas polidas aparecem em segundos, exploração, tentativa e erro e esforço produtivo perdem atratividade. A aprendizagem, historicamente marcada por fricção, corre o risco de tornar-se superficial. Alguns educadores falaram em uma geração de “passageiros”: fisicamente presentes, mas intelectualmente ausentes.

Aqui, torna-se crucial distinguir entre melhores resultados e capacidades fortalecidas. A IA pode gerar um ensaio bem estruturado. Isso não significa que o estudante tenha aprendido a argumentar. Pode resumir um texto sem desenvolver compreensão. Pode resolver problemas matemáticos sem fomentar raciocínio. O relatório alerta contra a confusão entre produto e processo, desempenho e desenvolvimento.

A aprendizagem, lembram os autores, é cognitiva, social e emocional. Desenvolve-se por meio do diálogo, da dúvida e da negociação. Quando a IA se transforma em atalho universal, essas dimensões podem se enfraquecer. Por isso o relatório sustenta que, neste momento, os riscos superam os benefícios — não porque a IA funcione mal, mas porque realiza tarefas que antes exigiam aprender.

Reconhecer o potencial da IA não é evangelização tecnológica. É um passo necessário para definir o que deve ser preservado, o que pode evoluir e o que não deve ser delegado.

Duas trajetórias possíveis

O relatório apresenta duas trajetórias plausíveis. A primeira é a da aprendizagem enriquecida: ferramentas de IA desenhadas com base na ciência da aprendizagem; ampliação do acesso; personalização sem isolamento; tempo docente redirecionado para o trabalho relacional; avaliação que vai além de testes de múltipla escolha. Nesse cenário, a IA fortalece a interação entre estudantes, professores e conteúdos — o núcleo de uma escola eficaz.

A segunda trajetória é a da aprendizagem empobrecida: adoção indiscriminada; esforço substituído por automação; pensamento e motivação externalizados; vínculos de confiança enfraquecidos; privacidade comprometida por sistemas opacos. Nessa trajetória, a eficiência aparente mascara perdas acumulativas no desenvolvimento cognitivo, social e emocional.

A tecnologia não determina o resultado. As decisões humanas determinam — decisões pedagógicas sobre quando usar IA e, sobretudo, quando não usar; decisões institucionais sobre proteger o “dividendo de tempo” docente; decisões regulatórias sobre privacidade desde a concepção e proteção adequada à infância. Com essas alavancas alinhadas, os sistemas podem avançar em direção a experiências enriquecidas. Sem elas, correm o risco de deslizar rumo à substituição por conveniência.

Por isso o relatório enfatiza a necessidade de ação precoce: esclarecer usos aceitáveis em sala de aula; preparar professores para integrar IA como ampliação, não substituição; apoiar famílias que navegam por território desconhecido; exigir padrões industriais que priorizem conteúdos verificados e proteção infantil. Governança importa. O futuro permanece dependente de políticas, currículos e prioridades coletivas.

Prosperar, preparar e proteger

O relatório propõe três pilares inter-relacionados. Prosperar significa mais do que aprender a operar novas ferramentas. Significa preservar o centro da aprendizagem — curiosidade, pensamento deliberado, conexão humana — e utilizar IA apenas quando ela fortalece essas capacidades. Exige discernimento: saber quando a tecnologia agrega valor e quando interfere em processos essencialmente humanos.

Preparar envolve construir infraestrutura cognitiva e institucional. Estudantes precisam de critérios para avaliar respostas da IA, identificar vieses, compreender limitações e calibrar o uso adequado. Professores precisam de tempo, formação e apoio pedagógico. Sistemas educacionais necessitam de planejamento de longo prazo em conectividade, equidade de acesso, marcos éticos e governança.

Proteger reconhece que os riscos da IA não são abstratos. Manifestam-se na erosão da privacidade, na manipulação emocional, no uso compulsivo, na exposição a conteúdos inadequados e em impactos no desenvolvimento. Proteger implica exigir design seguro para crianças, estabelecer limites claros, reforçar supervisão adulta e priorizar o bem-estar acima da novidade tecnológica.

Esses pilares são interdependentes. Governos, escolas, famílias e empresas de tecnologia compartilham responsabilidade. O objetivo não é resistir nem se render, mas coexistir de forma intencional.

Ainda estamos a tempo

A IA não desaparecerá das salas de aula nem de nossas vidas. A questão duradoura é o que os seres humanos devem continuar fazendo quando aprendem. Essa reformulação sustenta o relatório. Ele não nega o potencial da IA — personalizar, ampliar acesso, reduzir carga administrativa. Mas, com base nas evidências disponíveis e nas vozes ouvidas globalmente, conclui que, por ora, os riscos predominam.

A trajetória não está definida. Pode ser redirecionada se sistemas agirem antes que atalhos se consolidem — usando IA para ampliar capacidades, não substituí-las; incorporando privacidade e bem-estar desde o design; preparando professores, famílias e estudantes para exercer julgamento crítico.

A inteligência artificial obriga a educação a enfrentar uma questão antiga: quais capacidades humanas devem permanecer no centro da aprendizagem? Respondê-la com serenidade, evidência e propósito pode ser o passo mais importante para chegarmos a tempo.

Você também pode estar interessado em…