Um artigo que vale a pena prestar muita atenção. Ele apresenta o Gerenciamento de Contexto Sem Perdas (LCM), que reformula como os agentes lidam com contextos longos. Ele supera o Claude Code em tarefas de contexto longo. Modelos de Linguagem Recursiva concedem ao modelo total autonomia para escrever seus próprios scripts de memória. O LCM recupera esse poder, passando-o para um motor determinístico que comprime mensagens antigas em um DAG hierárquico, mantendo ponteiros lossless para cada original. Menos expressivo na teoria, muito mais confiável na prática. Os resultados: O agente deles (Volt, no Opus 4.6) supera o Claude Code em *todos* os comprimentos de contexto de 32K a 1M tokens no benchmark OOLONG. +29,2 pontos de melhora média contra +24,7 de Claude Code. A diferença aumenta em contextos mais longos. A implicação é algo que continuamos reaprendendo com a história da engenharia de software: a forma como você gerencia o que o modelo vê pode importar mais do que dar ao modelo ferramentas para gerenciá-lo sozinho. Todo framework de agentes que lança estratégias de memória "deixe o modelo resolver" pode estar se baseando totalmente na abstração errada. Papel: Aprenda a construir agentes de IA eficazes em nossa academia: