
Uma professora abre seu laptop antes de a aula começar e pede a um assistente de inteligência artificial que reformule uma rubrica para torná-la compreensível para alunos de doze anos. O sistema responde em segundos. Ela revisa o texto, corrige uma nuance e o projeta na tela. Cada uma dessas interações produz dados, ativa modelos treinados com enormes volumes de informação e ocorre dentro de infraestruturas tecnológicas que a escola não controla completamente.
Com a inteligência artificial já plenamente instalada e parcialmente incorporada nas salas de aula, precisamos começar a perguntar em que condições institucionais o uso dessa tecnologia é legítimo. Essa pergunta, entre outras, é um dos focos de Entre aulas y algoritmos. Inteligencia artificial, equidad y derechos digitales en educación (Entre salas de aula e algoritmos. Inteligência artificial, equidade e direitos digitais na educação), de Manuel José Ruiz García, uma análise de como funcionam os modelos generativos, quais oportunidades abrem para o ensino e quais são seus limites.
Neste artigo nos concentramos nesses limites. Porque, como defende o autor, a inovação educacional depende menos da potência das ferramentas do que das garantias que acompanham seu uso.
Direitos digitais como condição de possibilidade
Quando se fala em inteligência artificial na educação, a conversa costuma se concentrar no que as ferramentas podem fazer: gerar exercícios, resumir textos, oferecer feedback automático ou analisar grandes volumes de informação sobre a aprendizagem. Mas essa abordagem técnica deixa de lado uma questão extremamente importante: o que acontece com os dados que tornam essas capacidades possíveis.
A digitalização educacional gerou uma enorme quantidade de informação sobre a atividade escolar. Plataformas de aprendizagem, sistemas de gestão educacional e aplicativos digitais registram resultados de exercícios, tempos de conexão, padrões de interação com conteúdos ou rotas de navegação dentro dos materiais didáticos. A introdução de sistemas de inteligência artificial multiplica o valor potencial desses dados, mas também amplia os riscos associados ao seu uso.
A analítica da aprendizagem promete detectar padrões invisíveis à observação humana, identificar estudantes em risco de abandono ou personalizar trajetórias educativas. No entanto, essa capacidade técnica não elimina a necessidade de justificar quais dados são coletados e para que finalidade. Porque tudo o que pode ser medido é pedagogicamente relevante?
A acumulação indiscriminada de informação pode gerar ambientes de vigilância educacional que transformem a experiência escolar em algo diferente do que ela pretende ser. O problema não é apenas a privacidade individual. Ele também afeta o clima institucional. Um sistema educacional que normaliza o monitoramento constante corre o risco de redefinir a relação entre estudantes, professores e tecnologia.
É nesse ponto que Manuel Ruiz recupera um dos princípios centrais da regulação europeia de proteção de dados: a minimização de dados, que, simplificando bastante, significa coletar apenas as informações necessárias para cumprir uma finalidade específica.
A esse princípio soma-se outro igualmente importante: a supervisão humana significativa. Decisões com impacto relevante na trajetória de um estudante (avaliações acadêmicas, recomendações educacionais ou identificação de dificuldades de aprendizagem) não deveriam depender exclusivamente de sistemas automatizados.
Esse ponto não responde apenas a uma preocupação ética. Ele também tem uma dimensão epistemológica. Sistemas de inteligência artificial funcionam detectando padrões em dados passados. O trabalho educativo, por sua vez, implica interpretar trajetórias individuais, contextos sociais e potenciais de desenvolvimento que nem sempre aparecem nos dados disponíveis.
Por isso, a transparência se torna uma terceira garantia fundamental. Saber quais dados são utilizados, como são processados e sob quais critérios as recomendações são geradas não é apenas uma exigência normativa. É também uma condição para que professores, estudantes e famílias possam compreender as decisões que afetam o processo educativo.
Nesse contexto, afirma a publicação, os direitos digitais tornam-se uma condição estrutural da inovação educacional: sem garantias sobre dados, supervisão humana e transparência, a inovação educacional perde legitimidade institucional. As tecnologias podem melhorar a eficiência de certos processos, mas dificilmente poderão se sustentar dentro de sistemas educacionais públicos se não gerarem confiança social.
A acumulação indiscriminada de informação pode gerar ambientes de vigilância educacional que transformem a experiência escolar em algo diferente do que ela pretende ser.
A infraestrutura não é neutra
Desloquemos agora o olhar: das aplicações, que constituem a face visível da inteligência artificial, para a infraestrutura tecnológica que as torna possíveis.
Os sistemas generativos atuais não são ferramentas isoladas. Eles fazem parte de um ecossistema tecnológico muito mais amplo que inclui modelos treinados com enormes volumes de dados, centros de processamento distribuídos e plataformas que operam em escala global.
A maioria dos modelos de inteligência artificial atualmente utilizados na educação foi desenvolvida por grandes empresas de tecnologia ou por instituições com capacidades computacionais excepcionais. As instituições educacionais, por sua vez, operam em contextos locais e sob responsabilidades públicas específicas. Quando adotam ferramentas baseadas nesses modelos, passam a depender de sistemas cujo funcionamento e evolução não controlam.
Essa dependência tem várias implicações. A primeira é a opacidade técnica. O treinamento de modelos de linguagem ou sistemas de recomendação costuma basear-se em conjuntos massivos de dados cuja composição raramente é totalmente transparente. A segunda é a assimetria institucional. As decisões sobre atualizações, políticas de acesso ou condições de uso são tomadas em ambientes que não respondem diretamente às prioridades educacionais.
Nada disso significa que as ferramentas não devam ser utilizadas. Significa que sua adoção exige uma reflexão sobre governança tecnológica. Ser capaz de responder a perguntas como: quem define os critérios de adoção? Que condições devem cumprir os provedores tecnológicos? Como são avaliados os riscos associados a sistemas que evoluem rapidamente?
Nesse ponto, Manuel Ruiz se refere a uma linha de análise que começa a ganhar relevância no debate internacional: o desenvolvimento de alternativas tecnológicas mais controláveis. Diante da dependência exclusiva de grandes modelos generativos hospedados na nuvem, alguns sistemas educacionais começam a experimentar o que o autor chama de formas de IA de proximidade: modelos menores e mais especializados capazes de operar em infraestruturas institucionais ou mesmo em dispositivos locais.
Esses sistemas não têm a potência dos grandes modelos comerciais, mas apresentam vantagens importantes em termos de controle de dados, transparência operacional e capacidade de adaptação pedagógica. Ao reduzir a distância entre a ferramenta e a instituição que a utiliza, ampliam também a margem de decisão dos sistemas educacionais sobre como os dados são processados e sob quais condições são utilizados.
Essa perspectiva introduz uma questão que o livro denomina soberania pedagógica e dos dados, que basicamente consiste em evitar dependências absolutas de grandes plataformas tecnológicas que limitem a capacidade dos sistemas educacionais de definir suas próprias regras de funcionamento.
Além disso, em contextos com conectividade limitada ou recursos tecnológicos escassos, soluções baseadas em infraestruturas locais podem ser mais sustentáveis do que a dependência permanente de serviços externos. Ferramentas capazes de operar offline, modelos treinados para tarefas educacionais específicas ou sistemas que processam informação dentro da própria instituição podem oferecer alternativas viáveis onde a infraestrutura digital é menos sólida.
A partir dessa perspectiva, a discussão sobre inteligência artificial na educação não se limita a quais ferramentas utilizar, mas a qual arquitetura tecnológica sustenta o sistema educacional e quem tem capacidade para governá-la.
Inovar sob condições
A tecnologia não substitui as instituições educacionais, mas também não é neutra em relação a elas. Cada sistema incorpora pressupostos sobre como a informação é organizada, como as decisões são tomadas e quem tem acesso aos dados. Quando essas ferramentas se integram ao funcionamento cotidiano das escolas, essas regras passam a fazer parte do próprio ambiente educativo. Mas que condições devem existir para que essa ajuda seja compatível com os princípios que sustentam a educação pública?
A história da inovação educacional mostra que as transformações tecnológicas mais duradouras não foram as mais rápidas, mas aquelas que se integraram dentro de marcos institucionais sólidos. O rádio educativo, os computadores escolares ou as plataformas digitais não transformaram a educação por si mesmos. Fizeram isso quando se integraram em práticas pedagógicas e regulações institucionais capazes de orientar seu uso.
A inteligência artificial introduz ainda outro desafio: sua capacidade de operar sobre grandes volumes de dados e gerar recomendações automatizadas amplia o alcance da tecnologia dentro do sistema educacional. Isso torna ainda mais necessário definir com clareza os limites dentro dos quais essas ferramentas podem ser utilizadas.
Longe de representar uma restrição à inovação, esses limites são sua condição de possibilidade. Eles protegem os estudantes contra usos indevidos de seus dados, preservam a responsabilidade profissional dos professores e asseguram que decisões educacionais relevantes continuem submetidas a critérios compreensíveis e passíveis de revisão.
Ruiz García propõe entender esses limites em vários planos. Em primeiro lugar, limites à automatização de decisões educacionais: sistemas de inteligência artificial podem apoiar processos de avaliação ou análise da aprendizagem, mas não substituir o julgamento pedagógico. Em segundo lugar, limites na coleta de dados. Nem tudo o que pode ser registrado em uma plataforma educacional constitui informação pedagogicamente relevante. Por fim, limites derivados da transparência e da governança tecnológica: quando uma ferramenta intervém em processos educacionais significativos, seu funcionamento deve ser compreensível e suas decisões devem poder ser revisadas.
Uma janela de oportunidade
As instituições educacionais existem precisamente para filtrar, organizar e dar sentido social às mudanças tecnológicas. A escola não é apenas um lugar onde ferramentas são utilizadas. É o espaço onde se decide quais ferramentas merecem confiança pública e sob quais condições podem fazer parte da aprendizagem.
A partir dessa perspectiva, o desafio que a inteligência artificial coloca hoje consiste em definir os critérios institucionais que tornarão possível sua integração sem alterar os princípios que justificam a existência do sistema educacional: equidade, responsabilidade pública e autonomia profissional dos professores.
Se algo a história da digitalização educacional nos ensinou é que a tecnologia avança mais rápido do que as instituições que precisam governá-la. A inteligência artificial amplia essa defasagem. Mas a rapidez com que os sistemas generativos entraram no debate público produziu um efeito inesperado: tornou visível uma infraestrutura tecnológica que durante anos permaneceu em segundo plano. Essa visibilidade cria uma oportunidade pouco comum na história da tecnologia educacional: discutir as regras de seu uso antes que essas infraestruturas se naturalizem.


