IA nas escolas: formando gênios ou "robôs" cognitivos?
A inteligência artificial chegou às escolas de forma definitiva, e trouxe com ela uma importante reflexão: estamos formando estudantes que ampliam sua capacidade de pensar com a tecnologia ou que terceirizam o próprio raciocínio? Dados recentes ajudam a dimensionar esse paradoxo.
Levantamento do OECD Digital Education Outlook 2026 mostra ganhos de até 127% em performance quando a IA atua como tutora. Ao mesmo tempo, os mesmos estudantes apresentam quedas relevantes quando a ferramenta é retirada. O dado, isoladamente, poderia ser lido como avanço. Mas, em perspectiva, amplia o debate se estamos diante de ganho real de aprendizagem ou de dependência assistida.
Essa é uma ruptura qualitativa em relação às tecnologias anteriores. Desde a década de 40, com o surgimento dos computadores, e o final dos anos 60, com os primeiros passos da internet, o foco esteve na ampliação do acesso à informação. Já a IA generativa, por outro lado, passou a interferir diretamente no processo cognitivo. Ela não apenas responde, mas estrutura raciocínios, sugere caminhos, revisa argumentos e antecipa soluções. Em muitos casos, opera como uma camada intermediária entre o estudante e o próprio pensamento, ressignificando a palavra aprender.
Com 90% da população acima de 10 anos online (PNAD 2024), é imprescindível que as instituições de ensino considerem a tecnologia como uma ferramenta de estudo de forma intencional. Se antes o processo envolvia buscar informação, interpretar e aplicar conhecimento, agora inclui também saber direcionar a IA. Formular boas perguntas, contextualizar, avaliar consistência e validar respostas passam a ser competências centrais. Não se trata mais apenas de consumir ou produzir conteúdo, mas de orquestrar processos cognitivos com apoio tecnológico, sem abrir mão da autoria.
Esse deslocamento dialoga com os eixos já estabelecidos pela BNCC da Computação — Pensamento Computacional, Mundo Digital e Cultura Digital —, mas vai além. Na prática, emerge uma competência transversal que ainda não está plenamente nomeada no currículo: a capacidade de pensar em colaboração com sistemas inteligentes sem perder autonomia intelectual.
O risco pedagógico invisível: performance sem aprendizagem
O problema é que essa transição não é neutra, pois há um risco pedagógico menos visível, mas crítico, que é a performance sem aprendizagem. O CIEB, no relatório do ECA Digital 2026, descreve esse fenômeno como "efeito muleta". A IA eleva a qualidade imediata das entregas, mas nem sempre contribui para a consolidação de habilidades cognitivas. O aluno acerta mais, mas não necessariamente entende mais.
Isso acontece porque o erro, elemento estruturante do aprendizado, começa a ser eliminado do processo. Sem tentativa, fricção e revisão, o desenvolvimento do raciocínio fica comprometido. O estudante passa a operar em um fluxo de respostas prontas, com pouca elaboração própria. No limite, aprende a chegar ao resultado, mas não a construir o caminho.
A questão, portanto, não é restringir o uso da IA, mas qualificar sua aplicação. Quando bem utilizada, ela pode aprofundar o aprendizado, não substituí-lo. Pode apoiar análise crítica, expandir repertório e acelerar ciclos de experimentação. Mas isso exige intencionalidade pedagógica. IA como meio, não como atalho.
Nesse cenário, o papel do professor se torna ainda mais estratégico. Ele deixa de ser o transmissor de conteúdo, função já tensionada há anos, para assumir uma posição mais complexa, a de mediador cognitivo. Cabe a ele estruturar contextos em que o uso da IA estimule reflexão, e não apenas execução.
Isso implica desenvolver novas competências docentes, entendimento de como esses modelos funcionam, quais são seus limites, onde podem falhar e como podem amplificar vieses. Sem esse repertório, o risco é incorporar a tecnologia de forma acrítica, reforçando desigualdades em vez de reduzi-las.
O impacto da IA na educação não é apenas pedagógico, mas social
E esse ponto nos leva a uma dimensão mais ampla do debate. Escolas que conseguem integrar a tecnologia de forma estruturada e intencional tendem a formar alunos com maior capacidade de abstração, autonomia e pensamento crítico. Já aquelas que utilizam a IA de forma superficial correm o risco de formar usuários dependentes, com baixa capacidade de questionamento.
A desigualdade, nesse caso, deixa de ser apenas de acesso e passa a ser de uso qualificado. Por isso, talvez a discussão mais relevante não seja se a IA é um “gênio” ou uma “muleta”, mas sob quais condições ela se torna uma ou outra. A resposta não está na tecnologia em si, mas na forma como ela é incorporada ao processo educacional.
No limite, o objetivo não deveria ser formar estudantes que performam melhor com IA, mas garantir que continuem capazes de pensar com qualidade e criticidade, seja com ou sem ela.
*Duval Guimarães é diretor-geral da Start By Alura. Mestre em Políticas Públicas pela Universidade de Harvard e conselheiro estratégico na HAA (Associação de Ex-alunos da América Latina), Duval acumula mais de uma década de experiência na interseção entre educação, tecnologia e setor público. Sua trajetória inclui passagens pelo Banco Mundial, FMI, Prefeitura de Belo Horizonte, Anglo American, Pearson, Somos Educação e EF Education First, além da presidência da ONG Cidadão Pró-Mundo. Na Start, lidera a escalada do letramento digital alinhado à BNCC de Computação, impulsionando soluções pedagógicas em larga escala para redes públicas e privadas, com foco em pensamento computacional e formação de professores.