注目に値する論文です。 このプログラムでは、エージェントが長いコンテキストをどのように扱うかを再定義するロスレスコンテキスト管理(LCM)を紹介します。 長いコンテキストタスクではClaude Codeを上回ります。 再帰言語モデルは、モデルが独自のメモリスクリプトを書く完全な自律性を与えます。LCMはその権限を取り戻し、古いメッセージを階層的なDAGに圧縮しつつ、すべての元のポインタをロスレスに保つ決定論的エンジンに引き渡します。理論上は表現力が少ないが、実際にははるかに信頼性が高い。 結果は以下の通りです: 彼らのエージェント(Volt、Opus 4.6)は、OOLONGベンチマークで32Kトークンから1Mトークンまでのあらゆるコンテキスト長でClaude Codeを上回っています。+29.2ポイントの平均改善、クロード・コードの+24.7点。この差は、より長い文脈で広がります。 その含意は、ソフトウェア工学の歴史から繰り返し学び続けているものです。つまり、モデルが何を見るかをどう管理するかが、モデル自身に管理ツールを与えることよりも重要かもしれません。「モデルに任せて解決する」という記憶戦略を搭載したすべてのエージェントフレームワークは、完全に間違った抽象化に基づいて構築している可能性があります。 論文: 私たちのアカデミーで効果的なAIエージェントの構築方法を学びましょう: