O valor pedagógico da dificuldade

Existem tarefas escolares cujo valor não está apenas no resultado final, mas no tempo e no esforço que exigem: resumir um texto, organizar um argumento, resolver um problema, encontrar as palavras precisas para explicar uma ideia. O que acontece quando essas tarefas podem ser resolvidas em segundos? Em uma conferência recente, o pedagogo Carlos Magro propunha olhar para a IA não apenas como uma ferramenta tecnológica, mas como um espelho que nos obriga a repensar o que significa hoje aprender, ensinar e pensar na escola. Este artigo “dialoga” com suas ideias para explorar quais processos intelectuais continuam sendo fundamentais para aprender e o que a escola pode perder se parte deles deixar de fazer parte da experiência educativa.

O valor pedagógico da dificuldade

Houve um tempo em que escrever um texto obrigava a pensar enquanto se escrevia. A frase aparecia antes de estar totalmente clara. As ideias se organizavam ao longo do percurso. Um resumo exigia distinguir o importante do acessório. Buscar informação implicava perder tempo, desviar-se, ler coisas inúteis, errar o caminho. Estudar significava enfrentar a dificuldade de reorganizar mentalmente um problema até torná-lo compreensível. Até começar era difícil. Sobretudo começar.

Parte da experiência intelectual consistia precisamente em atravessar esse processo. Não apenas para chegar ao resultado, mas porque grande parte da compreensão era construída ao longo do percurso.

A expansão da inteligência artificial começa a alterar essa relação entre pensamento e produção intelectual. Não porque as máquinas “pensem” por nós, mas porque permitem obter certos resultados sem necessariamente passar por todas as operações cognitivas que antes os tornavam possíveis. O esquema aparece antes de o tema ter sido plenamente compreendido. Um ensaio pode ganhar forma antes de as ideias amadurecerem completamente. Uma resposta pode chegar antes da dúvida.

A relação entre esforço intelectual e construção do conhecimento está começando a mudar.

Em uma conferência recente intitulada Ler o mundo hoje. A escola em tempos de inteligência artificial, o pedagogo e especialista em inovação educacional Carlos Magro propunha olhar para a IA menos como uma inovação tecnológica e mais como um espelho da educação contemporânea. Sua reflexão não girava apenas em torno de ferramentas ou plataformas, mas em torno de algo muito mais difícil de medir: o lugar do pensamento em uma cultura obcecada por produtividade, eficiência e aceleração.

A questão é relevante porque muitas das tarefas escolares tradicionais nunca tiveram valor apenas pelo resultado final. Escrever, resumir, resolver um problema matemático ou interpretar um texto eram também formas de organizar o pensamento. Processos de elaboração. Modos de aprender a observar, relacionar, distinguir, hierarquizar ou argumentar. O trabalho intelectual não aparecia depois da aprendizagem. Ele era a própria aprendizagem.

A inteligência artificial introduz uma nova tensão nessa lógica. Pela primeira vez, uma parte crescente dos produtos visíveis do pensamento — textos, respostas, sínteses, explicações — pode ser gerada sem percorrer completamente o caminho que antes conduzia até eles. Durante muito tempo, escrever, resumir, resolver um problema ou preparar uma prova foram vistos sobretudo como formas de demonstrar o que havia sido aprendido. Hoje, a inteligência artificial torna visível outra possibilidade: que parte da aprendizagem acontecesse justamente enquanto essas tarefas eram realizadas.

A escola sempre foi também uma tecnologia da atenção

A escola nunca foi apenas um lugar para transmitir informação. Muito antes da internet, muito antes das plataformas digitais e da inteligência artificial, sua função consistia também em criar as condições necessárias para sustentar a atenção e organizar o pensamento.

Ler um romance longo, resolver um problema matemático complexo, escrever uma redação ou interpretar um texto filosófico exigiam tempo. Mas não apenas tempo cronológico. Exigiam permanência. A capacidade de permanecer em uma ideia mesmo quando surgiam o tédio, a frustração ou o cansaço. Em grande medida, aprender consistia em permanecer tempo suficiente dentro de uma dificuldade.

Isso não transforma retrospectivamente a escola em um espaço ideal. A escola também foi rigidez, repetição mecânica, memorização vazia e disciplina excessiva. Muitas vezes confundiu atenção com obediência e silêncio com aprendizagem. Mas mesmo em suas versões mais burocráticas ou rotineiras conservava uma intuição: certos processos intelectuais precisam de duração, continuidade e certa resistência ao impulso de desistir rapidamente.

Ler profundamente, por exemplo, implica muito mais do que decodificar informação. Obriga a sustentar conexões, lembrar do que foi lido algumas páginas antes, antecipar sentidos, conviver com zonas de ambiguidade. Algo parecido acontece com a escrita. Redigir não consiste apenas em comunicar uma ideia já formada. Frequentemente, a ideia surge justamente durante o processo de escrever, corrigir, apagar, reorganizar e começar de novo.

Parte das preocupações levantadas por Carlos Magro em sua conferência apontam exatamente nessa direção. Não apenas para o impacto da inteligência artificial sobre as tarefas escolares, mas sobre as condições culturais do pensamento. A questão não é apenas o que as máquinas podem fazer, mas o que acontece com nossa relação com a atenção, a leitura, a espera ou a elaboração intelectual em um ambiente marcado pela aceleração permanente.

Porque a IA não surge no vazio. Ela chega a uma cultura já atravessada pela hiperestimulação, pela fragmentação da atenção e pela dificuldade crescente de sustentar longos processos de concentração. Mesmo antes de os chatbots começarem a escrever textos ou resolver exercícios, boa parte da experiência contemporânea já estava organizada em torno da velocidade, da interrupção e da resposta imediata.

Existe uma longa tradição de pesquisa em psicologia cognitiva que sustenta uma ideia aparentemente contraditória: aprender nem sempre se torna mais eficaz quando as tarefas se tornam mais fáceis. No início dos anos 1990, os psicólogos Robert e Elizabeth Bjork cunharam o conceito de desirable difficulties (dificuldades desejáveis) para descrever aqueles esforços cognitivos que, embora tornem a aprendizagem mais lenta ou mais exigente no curto prazo, fortalecem a compreensão e a memória no longo prazo.

A ideia questiona uma percepção muito difundida na cultura contemporânea: a de que reduzir fricções equivale automaticamente a melhorar a aprendizagem. Na educação, algumas dificuldades não são um obstáculo ao pensamento, mas parte do próprio processo de compreensão.

Isso ajuda a entender por que o debate sobre inteligência artificial na educação não pode ser reduzido apenas à discussão sobre ferramentas. Parte das preocupações levantadas por Carlos Magro apontam justamente nessa direção: o que acontece quando certas tecnologias permitem obter resultados intelectuais sem atravessar completamente as operações cognitivas que antes os tornavam possíveis.

A questão não é menor. Formular uma pergunta, resumir um texto, reorganizar anotações, escrever um ensaio ou resolver um problema matemático não são apenas formas de mostrar o que foi aprendido. São também formas de elaborar pensamento. A escrita, por exemplo, raramente se limita a expressar uma ideia já pronta. Muitas vezes, obriga justamente a descobrir o que se pensa, detectar contradições, reorganizar argumentos ou encontrar relações que ainda não estavam claras.

Algo parecido acontece com a metacognição: a capacidade de revisar, supervisionar e refletir sobre o próprio processo de aprendizagem. Diversas pesquisas recentes começam a alertar que uma dependência excessiva de ferramentas generativas pode reduzir parte desse trabalho cognitivo. Alguns estudos mostram que os estudantes melhoram seu desempenho enquanto têm acesso ativo a sistemas de IA, mas encontram mais dificuldades quando precisam resolver tarefas semelhantes de forma autônoma. Outras pesquisas alertam para riscos de raciocínio superficial, automatização prematura ou menor esforço intelectual sustentado.

Isso não transforma automaticamente a inteligência artificial em uma ameaça educacional. Algumas automatizações podem liberar tempo, reduzir tarefas repetitivas e oferecer apoios valiosos para determinados estudantes ou contextos. Delegar certas operações mecânicas não necessariamente empobrece a aprendizagem. O problema depende, em grande medida, do que é delegado.

Porque nem toda eficiência produz compreensão.

Talvez a questão central não seja então se a inteligência artificial deve ou não entrar nas salas de aula, mas quais processos intelectuais ainda vale a pena atravessar.

Formular uma pergunta, resumir um texto, reorganizar anotações, escrever um ensaio ou resolver um problema matemático não são apenas formas de mostrar o que foi aprendido. São também formas de elaborar pensamento.

O novo conflito educacional: substituir ou ampliar o pensamento

Durante décadas, boa parte da escola funcionou com base em uma premissa relativamente estável: o trabalho visível de um estudante oferecia pistas razoáveis sobre seu processo de aprendizagem. Um ensaio permitia inferir compreensão leitora, capacidade argumentativa ou manejo de ideias complexas. Um problema matemático mostrava procedimentos. Um resumo obrigava a selecionar, organizar e hierarquizar informações. O produto final nunca refletia perfeitamente o pensamento, mas existia uma relação relativamente reconhecível entre o esforço intelectual e o resultado apresentado.

A expansão da inteligência artificial começa a tornar essa relação mais instável. Hoje é possível produzir textos convincentes, resolver exercícios complexos ou gerar explicações elaboradas sem necessariamente atravessar o mesmo processo cognitivo que antes essas tarefas exigiam. E isso introduz uma nova dificuldade para a escola: já nem sempre é evidente que parte do trabalho foi realmente pensada, compreendida ou elaborada por quem a apresenta.

O problema não afeta apenas a autoria. Afeta também a avaliação. Porque durante muito tempo a escola avaliou sobretudo produtos visíveis: respostas, exercícios, redações, trabalhos finais. A inteligência artificial obriga a olhar com mais atenção para aquilo que esses produtos nem sempre mostram: o percurso intelectual que conduziu até eles.

Parte das reflexões propostas por Carlos Magro apontam precisamente para essa tensão. Não apenas porque a IA permite automatizar determinadas tarefas, mas porque torna mais frágil uma cultura educacional muito orientada para o desempenho visível e o resultado final.

Isso começa a modificar práticas concretas em muitas salas de aula. Alguns docentes estão recuperando avaliações orais, trabalhos realizados em classe ou exercícios centrados em explicar processos e não apenas respostas. Outros pedem versões intermediárias, conversas sobre como um texto foi construído ou atividades nas quais o importante já não é apenas entregar um produto correto, mas mostrar como se chegou até ele.

A questão não parece reduzir-se à detecção de trapaças. De fato, muitas dessas mudanças já existiam antes da inteligência artificial e respondiam a críticas a modelos de avaliação excessivamente centrados em resultados rápidos e pouco atentos à compreensão profunda. A IA acelera essa discussão porque torna mais visível uma diferença que durante muito tempo permaneceu parcialmente oculta: produzir uma resposta nem sempre equivale a construir conhecimento.

O que merece continuar sendo difícil

A escola nunca organizou a aprendizagem apenas em torno da eficiência. De fato, muitas de suas práticas históricas conservaram sentido mesmo quando já existiam maneiras mais rápidas de obter o mesmo resultado. Continuamos ensinando a escrever à mão quando os teclados já dominam a vida cotidiana. Os estudantes continuam resolvendo operações matemáticas embora existam calculadoras capazes de fazê-lo em segundos. Ler um romance longo continua ocupando semanas de trabalho escolar em uma cultura acostumada à velocidade dos fragmentos e das telas.

Nem sempre se trata de nostalgia. Muitas vezes, a decisão responde a outra lógica: a de preservar certas experiências intelectuais consideradas importantes para aprender a pensar.

Parte das perguntas levantadas por Carlos Magro apontam precisamente nessa direção. A inteligência artificial não obriga apenas a decidir quais ferramentas incorporar às salas de aula. Obriga também a perguntar quais práticas intelectuais ainda vale a pena atravessar mesmo quando existem formas mais rápidas, confortáveis ou eficientes de evitá-las.

A questão é especialmente complexa porque não existe uma fronteira clara entre apoio e substituição. Delegar certas tarefas mecânicas pode liberar tempo para atividades mais relevantes. Mas externalizar cedo demais alguns processos também pode enfraquecer capacidades que precisam justamente do exercício sustentado para se desenvolver: escrever, argumentar, interpretar, relacionar ideias, tolerar a incerteza, sustentar a atenção ou enfrentar uma dificuldade sem abandoná-la imediatamente.

Talvez por isso a discussão educacional em torno da inteligência artificial esteja começando lentamente a mudar de foco. Menos em direção à pergunta sobre o que a tecnologia pode fazer e mais em direção a outra questão, muito mais antiga e difícil: que tipo de experiências intelectuais ainda consideramos necessárias para formar sujeitos capazes de pensar por si mesmos.

Você também pode estar interessado em…