Nos artigos anteriores, eu defendi como a escola deve se posicionar diante da IA: com o enquadramento certo (Inteligência Aumentada, não Artificial), com um modelo operacional (as 5 Dimensões) e com método (a Zona Proximal de Adoção).

Hoje, vou fazer algo diferente, olhar para o que está acontecendo agora no estado da arte da IA generativa, na fronteira de pesquisa e desenvolvimento, e traduzir isso para o que vai chegar, em ondas, ao mundo da educação básica nos próximos meses e anos. Não como futurologia especulativa, mas com base no que já está sendo construído e testado.

Meu objetivo é ajudar você, gestor, a ter repertório suficiente para distinguir o que é hype do que é tendência real. Esse repertório é parte da Dimensão 1 (Letramento) e da Dimensão 2 (AI-First Mindset) que apresentei no segundo artigo. Ele não substitui nenhuma das outras camadas, mas alimenta a capacidade da liderança de ler o cenário e tomar decisões melhores.

A IA está aprendendo a ter memória

Até muito recentemente, os sistemas de IA funcionavam como um estagiário brilhante, mas com amnésia, cada conversa começava do zero. Você podia passar duas horas construindo um contexto sofisticado e, na sessão seguinte, tudo tinha sido esquecido. O modelo não tinha passado. Era, a cada interação, um novo contratado no primeiro dia.

Isso está mudando de forma estrutural. E essa mudança é fascinante porque segue um caminho que os cientistas cognitivos mapearam décadas atrás no cérebro humano.

Na psicologia cognitiva, usamos o modelo do “armazém” para descrever como a mente organiza informação. Existe uma memória de trabalho: limitada em capacidade, rápida, voltada para o que estamos processando agora. E existe uma memória de longo prazo: vasta, organizada por associações, responsável por tudo o que sabemos e aprendemos ao longo da vida. A inteligência humana não vem do tamanho bruto de nenhuma das duas, mas da qualidade da interação entre elas: como recuperamos o que é relevante, como conectamos experiências passadas a situações presente, como consolidamos o novo a partir do que já sabíamos.

Os agentes de IA estão começando a replicar exatamente essa arquitetura. Pesquisas recentes mostram sistemas que organizam a experiência do agente como grafos de eventos: em vez de guardar uma lista plana de trechos de texto, o agente cria um mapa de relações causais e temporais entre o que vivenciou. Não é mais “buscar o trecho mais parecido”. É navegar por relações de causa e efeito, exatamente como fazemos quando usamos a memória para resolver um problema novo.

Sistemas como o Letta já permitem que um agente mantenha memória persistente entre sessões, aprendendo preferências e nuances ao longo de semanas de uso. O agente modifica e organiza seus próprios blocos de memória de forma autônoma. É a diferença entre um colega de trabalho que acabou de entrar na escola e um coordenador que está há três anos ali, o segundo tem contexto, conhece as pessoas, entende os padrões e não precisa que você explique tudo de novo toda reunião.

Para quem leu meu artigo sobre as 5 Dimensões, essa evolução se conecta diretamente com a Dimensão 4, a Base de Conhecimento. A tese que eu defendi, de que “a IA genérica não aumenta a sua escola”, se torna ainda mais verdadeira e mais poderosa. Mais verdadeira porque a IA sem a base da escola continua sendo “de lugar nenhum”. Mais poderosa porque agora a tecnologia para construir essa base e torná-la memória viva do sistema está amadurecendo rapidamente.

Agentes com habilidades internas: menos ruído, mais inteligência

A tendência dominante nos últimos dois anos foi construir sistemas multiagentes: vários agentes de IA especializados conversando entre si para resolver uma tarefa complexa. Um agente pesquisa, outro analisa, outro redige, outro revisa. Parece eficiente na teoria. Na prática, pesquisas recentes revelam um custo oculto significativo: o “imposto de comunicação”. Cada vez que um agente precisa passar contexto para outro, há perda, redundância e latência. Os agentes ficam reexplicando a tarefa uns para os outros, como numa reunião corporativa em que todo mundo precisa ser colocado “na mesma página” antes de qualquer coisa andar.

A alternativa que está ganhando força é a compilação de capacidades: pegar as habilidades que antes estavam distribuídas em múltiplos agentes e internalizá-las em um único agente. Um agente com um repertório estruturado de competências, não um comitê de agentes se coordenando. Os resultados são de reduções da ordem de 50% em consumo de recursos computacionais e em tempo de resposta.

E aqui é onde eu faço o paralelo com o mundo da educação, porque ele é quase irresistível.

Qualquer gestor escolar sabe que existe uma diferença enorme entre um professor que domina várias competências integradas e um processo em que diferentes pessoas precisam se coordenar para cada entrega. Quando o professor sabe planejar, executar, avaliar e ajustar, o resultado é consistente. Quando cada uma dessas etapas depende de entregas entre pessoas diferentes, a qualidade oscila e o custo de coordenação é real.

É isso que as pesquisas de IA estão descobrindo: competência integrada em um agente coerente é mais eficiente que coordenação fragmentada entre vários agentes especializados. Além do aumento de consistência e eficiência, outra consequência prática importante é a diminuição drástica do consumo de recursos computacionais. Menos tokens processados significa menos energia, menos infraestrutura, menos custo. Num momento em que o impacto ambiental da IA é uma preocupação legítima, a evolução para agentes com habilidades compiladas não é apenas uma melhoria técnica, mas uma melhoria sistêmica que torna a tecnologia mais viável e mais responsável a longo prazo.

O limite cognitivo dos agentes

Esse é um ponto que me fascina, e mostra que a IA tem limites análogos aos nossos. Pesquisadores descobriram que existe um teto, dar habilidades demais a um agente não melhora seu desempenho de forma linear. Há um ponto de virada em que a performance cai abruptamente, uma transição de fase, como os cientistas descrevem. Quando a biblioteca de ferramentas excede a capacidade de processamento do modelo, o agente entra em “confusão cognitiva”, especialmente quando as ferramentas são parecidas entre si.

Isso é análogo ao Número Mágico de Miller na psicologia: a ideia de que a memória de trabalho humana lida bem com 7±2 itens simultâneos, mas degrada rapidamente acima disso. E à Lei de Hick, que mostra que o tempo de decisão aumenta com o número de opções.

Herbert Simon, Nobel de Economia, resumiu isso décadas atrás: a capacidade da mente para formular e resolver problemas complexos é muito menor do que o tamanho dos problemas que o mundo real apresenta.

Para a educação, esse achado é importante por dois motivos. Primeiro, porque reforça que a IA não é onipotente, ela tem limitações estruturais que espelham as nossas. Segundo, porque a solução que os engenheiros encontraram para esse problema é, de novo, profundamente educacional: roteamento hierárquico, que é a versão de IA para o conceito de “chunking” da psicologia cognitiva. Em vez de apresentar todas as opções de uma vez, você organiza as decisões em subgrupos lógicos, reduz a complexidade de cada escolha e permite que o sistema escale sem perder qualidade.

É exatamente o que um bom coordenador pedagógico faz ao organizar uma formação continuada, não joga tudo de uma vez. Sequencia. Agrupa. Dá uma coisa por vez, com profundidade suficiente para gerar competência real.

Agentes que se conectam ao mundo: o protocolo MCP

Existe mais uma peça que vale mencionar: o Model Context Protocol (MCP). É um padrão aberto, criado pela Anthropic, que funciona como uma interface universal para agentes de IA se conectarem a ferramentas e fontes de dados externas. Pense nele como um “idioma comum” que permite que um agente acesse seu Google Drive, seu sistema de gestão, sua base de dados, sem precisar de integrações customizadas para cada um.

Na prática, isso significa que os agentes, num futuro próximo, não vão operar isolados, vão se integrar aos sistemas que a escola já usa. Vão ler a base de alunos, acessar o histórico de comunicações, consultar o calendário acadêmico e gerar artefatos contextualizados. Isso é a Dimensão 5 (Arquitetura de Interação) ganhando infraestrutura real.

Plataformas como OpenAI Agent Builder e CrewAI já operam com essa lógica, permitindo que qualquer organização construa agentes conectados aos seus sistemas sem precisar de uma equipe de engenharia dedicada. Isso democratiza o acesso e, ao mesmo tempo, aumenta a importância da governança: se o agente pode acessar tudo, a pergunta sobre o que ele deveria acessar se torna crítica.

O que isso muda para a escola: um exercício responsável de futurologia

Eu sei que é tentador ler tudo isso e sentir aquele misto de fascínio e ansiedade. Então, sendo direto sobre o que eu acho que essas tendências significam para a educação básica nos próximos anos.

Para o gestor: Os produtos de IA que chegarão à escola serão significativamente melhores do que os atuais. Agentes com memória persistente, com habilidades compiladas e com capacidade de se conectar aos sistemas da escola vão tornar viáveis coisas que hoje exigem trabalho manual intenso. A Base de Conhecimento que defendi na Dimensão 4 não será mais apenas um conceito: será uma infraestrutura funcional. Mas “melhor” não significa “mais seguro” automaticamente. A governança que você não construiu antes vai fazer ainda mais falta quando a capacidade da IA aumentar. O momento de construir as bases é agora, enquanto a ZPA está acessível.

Para o professor: O assistente de IA vai deixar de ser aquele colega novo que esquece tudo e vai se tornar um colaborador que conhece a turma, lembra do que funcionou no bimestre passado, entende o padrão da escola e propõe coisas cada vez mais contextualizadas. Isso não elimina a necessidade de Letramento (Dimensão 1), na verdade, aumenta: quanto mais capaz a IA, mais importante é saber quando confiar, quando questionar e quando sobrescrever.

Para o aluno: A experiência de aprender com suporte de IA vai se tornar mais personalizada e mais contínua. A avaliação formativa conversacional que apresentei no segundo artigo é um exemplo do que já é possível, e a memória persistente vai permitir que o sistema acompanhe a evolução do aluno ao longo do tempo, não apenas em uma sessão isolada. A questão que a escola precisa responder é: quem define os critérios dessa personalização? Se for a escola, com sua base de conhecimento e seus valores, o resultado é Inteligência Aumentada. Se for o fornecedor de tecnologia, com os critérios dele, a escola perde protagonismo.

Para a escola como instituição: A combinação de agentes mais inteligentes, mais eficientes e mais conectados significa que o diferencial competitivo vai se deslocar. Não será mais “a escola que usa IA” versus “a escola que não usa”. Será “a escola que tem método, base e governança” versus “a escola que tem uso solto”. O framework das 5 Dimensões foi construído exatamente para esse cenário.

A IA está ficando mais parecida com a gente, e é por isso que o humano importa mais

Se há uma conclusão que eu tiro de tudo o que está acontecendo na fronteira da IA, é esta: quanto mais os sistemas se aproximam da arquitetura cognitiva humana, memória de trabalho, memória de longo prazo, limites de processamento, organização hierárquica, mais evidente fica que o valor humano não está em competir com a máquina em processamento, mas em fazer o que ela ainda não faz: julgar, vincular, contextualizar com sensibilidade, decidir com responsabilidade.

A escola que entende isso não tem medo da próxima onda. Tem método para surfá-la.

Se você quer construir esse método com profundidade, eu vou conduzir uma mentoria para gestores de escolas privadas:

08/04/2026 — online

10/04/2026 — presencial, em São Paulo

As vagas são limitadas.

Inscreva-se pelo link: https://mkt.primeiraescolha.com.br/mentoria-ia-360-nas-escolas

Minha promessa: você vai sair com um modelo de Inteligência Aumentada aplicado à sua escola e com clareza sobre o que está por vir e como se preparar.