Ett papper värt att följa noga. Den presenterar Lossless Context Management (LCM), som omformulerar hur agenter hanterar långa kontexter. Den överträffar Claude Code på långkontextuppgifter. Rekursiva språkmodeller ger modellen full autonomi att skriva egna minnesskript. LCM tar tillbaka den makten och överlämnar den till en deterministisk motor som komprimerar gamla meddelanden till en hierarkisk DAG samtidigt som den behåller förlustfria pekare till varje original. Mindre uttrycksfullt i teorin, mycket mer pålitligt i praktiken. Resultaten: Deras agent (Volt, på Opus 4.6) slår Claude Code på *varje* kontextlängd från 32K till 1M tokens på OOLONG-benchmarken. +29,2 poängs genomsnittlig förbättring jämfört med Claude Codes +24,7. Gapet ökar vid längre sammanhang. Implikationen är något vi ständigt lär om från mjukvaruutvecklingshistorien: hur du hanterar vad modellen ser kan vara viktigare än att ge modellen verktyg för att hantera den själv. Varje agentramverk som levereras med "låt modellen lista ut det"-minnesstrategier kan bygga helt på fel abstraktion. Papper: Lär dig att bygga effektiva AI-agenter i vår akademi: