Tópicos em alta
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Um artigo que vale a pena prestar muita atenção.
Ele apresenta o Gerenciamento de Contexto Sem Perdas (LCM), que reformula como os agentes lidam com contextos longos.
Ele supera o Claude Code em tarefas de contexto longo.
Modelos de Linguagem Recursiva concedem ao modelo total autonomia para escrever seus próprios scripts de memória. O LCM recupera esse poder, passando-o para um motor determinístico que comprime mensagens antigas em um DAG hierárquico, mantendo ponteiros lossless para cada original. Menos expressivo na teoria, muito mais confiável na prática.
Os resultados:
O agente deles (Volt, no Opus 4.6) supera o Claude Code em *todos* os comprimentos de contexto de 32K a 1M tokens no benchmark OOLONG. +29,2 pontos de melhora média contra +24,7 de Claude Code. A diferença aumenta em contextos mais longos.
A implicação é algo que continuamos reaprendendo com a história da engenharia de software: a forma como você gerencia o que o modelo vê pode importar mais do que dar ao modelo ferramentas para gerenciá-lo sozinho. Todo framework de agentes que lança estratégias de memória "deixe o modelo resolver" pode estar se baseando totalmente na abstração errada.
Papel:
Aprenda a construir agentes de IA eficazes em nossa academia:

Melhores
Classificação
Favoritos
