Un documento que vale la pena seguir de cerca. Presenta la Gestión de Contexto Sin Pérdidas (LCM), que replantea cómo los agentes manejan contextos largos. Supera a Claude Code en tareas de contexto largo. Los Modelos de Lenguaje Recursivos le dan al modelo plena autonomía para escribir sus propios guiones de memoria. LCM recupera ese poder, entregándolo a un motor determinista que comprime mensajes antiguos en un DAG jerárquico mientras mantiene punteros sin pérdidas a cada original. Menos expresivo en teoría, mucho más fiable en la práctica. Los resultados: Su agente (Volt, en Opus 4.6) supera a Claude Code en *todas* las longitudes de contexto desde 32K hasta 1M de tokens en el benchmark OOLONG. +29.2 puntos de mejora promedio frente a los +24.7 de Claude Code. La brecha se amplía en contextos más largos. La implicación es una que seguimos reaprendiendo de la historia de la ingeniería de software: cómo gestionas lo que el modelo ve puede importar más que darle al modelo herramientas para gestionarlo por sí mismo. Cada marco de agente que se envía con estrategias de memoria de "deja que el modelo lo resuelva" puede estar construyendo sobre la abstracción equivocada por completo. Documento: Aprende a construir agentes de IA efectivos en nuestra academia: