Imagine a seguinte cena: você precisa ir de São Paulo a uma cidade no interior que nunca visitou. Alguém coloca na sua mão um Guia 4 Rodas, aquele calhamaço com mapas impressos, índice por região e indicações de estradas. Diz que você precisa traçar a rota, memorizar as referências e provar que sabe o caminho antes de sair. Enquanto isso, no seu bolso, está o Waze. Com rota em tempo real, recalculando a cada desvio, mostrando onde tem radar, onde tem acidente, qual a previsão de chegada.

Ninguém sério obrigaria você a ignorar o Waze e resolver a viagem com o Guia 4 Rodas. Não faz sentido. A habilidade de memorizar rotas deixou de ser a competência relevante no momento em que a tecnologia mudou o que significa “saber chegar a um lugar”. Saber chegar, hoje, é saber usar a ferramenta certa, interpretar o que ela mostra, tomar decisões quando o GPS erra, adaptar a rota quando as condições mudam.

Mesmo assim, em 2026, a maioria das escolas brasileiras continua aplicando provas que são, em essência, o Guia 4 Rodas da avaliação: testam se o aluno memorizou informações que ele pode acessar em segundos com o celular no bolso. Pior: agora ele pode não só acessar, mas pedir para uma IA organizar, sintetizar e até argumentar a partir dessas informações.

A prova de memorização na era pós-Google, pós-ChatGPT, não é rigorosa, é anacrônica. E o mais inquietante é que todo mundo sabe disso, gestores, professores, famílias, e em muitos casos até os próprios alunos, mas a estrutura avaliativa da escola permanece presa a um modelo que foi desenhado para um mundo que já não existe.

O problema não é “IA na cola”. O problema é o que estamos medindo.

Desde que o ChatGPT se popularizou, a conversa dominante nas escolas sobre IA e avaliação gira em torno de um tema: cola. Como detectar se foi o aluno ou IA?

Eu entendo a preocupação. Ela é legítima. Mas ela é um sintoma, não a doença.

A doença é que uma parcela significativa das avaliações escolares mede capacidades que a IA já faz melhor, mais rápido e de graça: reproduzir informação, organizar dados, redigir textos padronizados. Quando a avaliação mede o que a máquina faz, o aluno que usa a máquina está sendo racional, não desonesto. Ele está, instintivamente, usando o Waze.

O desafio real não é como impedir a cola. É como redesenhar a avaliação para medir o que importa de verdade: raciocínio, julgamento, conexão entre ideias, capacidade de perguntar, de interpretar, de decidir com critério. Tudo aquilo que, como eu argumentei nos artigos anteriores, é o território do humano na era da Inteligência Aumentada.

E aqui é onde a IA, que parecia ser o problema, se torna a ferramenta mais poderosa para resolver o problema.

O que está chegando em 2026: dois movimentos concretos

Eu não vou especular sobre o que pode acontecer daqui a cinco anos. Vou falar sobre o que já está sendo desenvolvido e que vai começar a chegar às escolas ainda em 2026, em produtos funcionais, não em protótipos de laboratório.

Agentes que corrigem provas

A primeira onda é a mais óbvia: agentes de IA capazes de corrigir avaliações com qualidade, consistência e escala que o modelo atual não permite.

Não estou falando de gabarito automático de múltipla escolha, isso já existe há décadas. Estou falando de agentes que leem uma resposta dissertativa, aplicam uma rubrica, identificam o que o aluno demonstrou saber e o que ficou frágil, e geram um feedback estruturado, não apenas um número (“nota 7”).

Para que isso funcione com qualidade na sua escola, e não de forma genérica e vazia, é preciso exatamente o que eu venho defendendo desde o Tema 2: Base de Conhecimento. O agente precisa operar com a rubrica da escola, com os critérios do professor, com o padrão de qualidade daquela instituição. A correção aumentada não é a IA corrigindo “a prova”. É a IA corrigindo pela rubrica daquele professor, naquela disciplina, com os critérios daquela escola. A autoria do critério é humana. A escala da aplicação é da máquina.

O impacto prático para o professor é enorme: menos horas corrigindo, mais horas analisando resultados e planejando intervenções. E para o aluno: feedback mais rápido, mais detalhado e mais consistente entre professores da mesma série.

Avaliação conversacional: a IA que analisa o caminho, não só a chegada

A segunda onda é mais profunda e, na minha visão, mais transformadora.

Já estão sendo desenvolvidos sistemas de avaliação conversacional, em que o aluno não responde a uma lista de perguntas estáticas, mas interage com um agente em um diálogo estruturado. O agente faz uma pergunta, o aluno responde, e a próxima pergunta se ajusta ao que o aluno demonstrou. Se o aluno erra, o agente não marca “errado” e segue em frente. Ele investiga: “Você pode me explicar por que escolheu esse caminho?” Se o aluno acerta, o agente pode aprofundar: “E se as condições fossem diferentes, o que mudaria?”

O que está sendo avaliado aqui não é a resposta final. É o processo de raciocínio. É o caminho, não a chegada.

Volto à analogia do Waze. Numa avaliação tradicional, eu pergunto: “Qual a rota de São Paulo a Campinas pela Bandeirantes?” O aluno que memorizou responde certo. O aluno que não memorizou, mas que sabe usar ferramentas, interpretar mapas e tomar decisões de navegação, é reprovado.

Numa avaliação conversacional, a pergunta muda: “Você precisa chegar a Campinas no horário de pico. Me conte como você pensaria essa viagem.” Aí sim eu estou avaliando pensamento. Planejamento. Capacidade de considerar variáveis. Flexibilidade diante de mudanças. E a IA, por estar conduzindo a conversa, consegue registrar cada passo do raciocínio, identificar onde o aluno é consistente, onde hesita, onde muda de estratégia e onde se perde.

Isso não é ficção. Os modelos de linguagem atuais já conseguem conduzir esse tipo de diálogo com qualidade surpreendente. O que está amadurecendo agora é a camada de avaliação estruturada sobre esse diálogo: a rubrica conversacional, os indicadores de raciocínio, os painéis que transformam a conversa em evidência pedagógica legível.

O que muda no papel de cada um

Para o professor

O professor não perde relevância. Ganha um instrumento que ele nunca teve: visibilidade sobre o processo de pensamento do aluno em escala.

Hoje, o professor vê o resultado. Às vezes, durante uma aula, consegue captar algo do processo: uma pergunta, um raciocínio em voz alta, uma hesitação. Mas isso é artesanal e depende de estar ali, naquele momento, com aquele aluno. Não escala.

Com avaliação conversacional, o professor recebe evidência estruturada do percurso cognitivo de cada aluno. Onde usou lógica. Onde apelou para memória. Onde conectou com outro conceito. Onde travou. Isso muda a qualidade da intervenção pedagógica de forma radical: o professor sabe o que o aluno pensa, não apenas o que ele responde.

Mas, e esse ponto é fundamental, o professor precisa de letramento para interpretar essas evidências. Uma lista de “indicadores de raciocínio” gerada por IA não serve para nada se o professor não sabe o que fazer com ela. É a Dimensão 1 (Letramento) alimentando diretamente a prática em sala.

Para o aluno

A experiência do aluno muda profundamente. Em vez de “prova como julgamento”, avaliação se torna “prova como conversa”. A barreira emocional cai. O aluno que trava diante da folha em branco pode se sentir mais confortável em um diálogo. O aluno que tem raciocínio forte mas expressão escrita fraca ganha um canal onde sua competência real aparece.

E há um efeito secundário poderoso: quando o aluno percebe que o que está sendo avaliado é seu raciocínio, e não sua capacidade de reproduzir conteúdo, a motivação para aprender muda. A cola deixa de fazer sentido. Não porque foi proibida, mas porque não resolve o problema. Você não cola raciocínio.

Para o gestor

A avaliação conversacional é provavelmente o caso de uso mais poderoso para a liderança escolar em 2026, porque resolve três problemas ao mesmo tempo:

O problema pedagógico: gera evidência de aprendizagem mais rica e mais honesta do que a avaliação tradicional.

O problema da IA e “cola”: não é preciso proibir nem detectar, porque o formato torna a questão irrelevante.

O problema da consistência: com rubricas conversacionais padronizadas e alimentadas pela Base de Conhecimento da escola, a avaliação ganha um nível de coerência institucional que é difícil de alcançar manualmente.

Mas, e esse é o ponto que eu venho repetindo, nada disso funciona sem as 5 Dimensões. Sem Base de Conhecimento, a avaliação conversacional é genérica. Sem Arquitetura de Interação, cada professor faz de um jeito. Sem AI-First Mindset da liderança, a escola espera o fornecedor ditar as regras.

A pergunta que a escola precisa se fazer agora

A questão não é se a avaliação vai mudar. A questão é se a sua escola vai liderar essa mudança ou ser arrastada por ela.

Se você esperar até que os produtos prontos cheguem ao mercado e simplesmente “adotar” a solução do fornecedor, a avaliação da sua escola vai ser moldada pelos critérios, pela rubrica e pelo modelo de mundo de outra organização. Sua escola será o carro seguindo o GPS de alguém que não conhece suas ruas.

Se você começa agora a construir a base, os critérios, a rubrica, a linguagem avaliativa da sua instituição, quando os produtos chegarem, a sua escola vai ser capaz de alimentá-los com o “modelo de mundo” correto. A IA vai operar com a inteligência da sua escola, não com a de um sistema genérico.

Isso é a Zona Proximal de Adoção do Tema 3 aplicada à avaliação: a escola que constrói as condições agora vai estar dentro da ZPA quando a onda chegar. A escola que espera vai olhar de fora, na zona de conforto, ou vai tentar adotar tudo de uma vez e cair na zona de frustração.

Guarde o Guia 4 Rodas no museu. O Waze já está no bolso dos alunos.

Eu não estou dizendo que memorização não importa. Há conhecimentos que precisam estar na cabeça, assim como há destinos que você precisa saber ir sem GPS: o caminho de casa, a rota de emergência. Base de conhecimento pessoal importa.

O que eu estou dizendo é que a avaliação que se limita a testar memorização em 2026 é como obrigar alguém a usar o Guia 4 Rodas com o Waze no bolso. Ela não mede competência real. E pior: ensina ao aluno que o que a escola valoriza é algo que a tecnologia já superou.

A avaliação da era da Inteligência Aumentada precisa medir o que o humano faz de insubstituível: pensar, conectar, julgar, argumentar, criar. E a IA, paradoxalmente, vai ser a ferramenta que permitirá à escola finalmente medir isso em escala.

Se você quer construir esse caminho com profundidade e método, eu vou conduzir uma mentoria para gestores de escolas privadas:

08/04/2026 — online

10/04/2026 — presencial, em São Paulo

As vagas são limitadas.

Inscreva-se pelo link: https://mkt.primeiraescolha.com.br/mentoria-ia-360-nas-escolas 

Minha promessa: você vai sair com um modelo de avaliação aumentada aplicável à sua escola e com clareza sobre como se preparar para o que está chegando.