LLM(大規模言語モデル)を実務で使っていると、コンテキストウィンドウの制限に悩まされることが少なくありません。長い会話や大量のドキュメントを扱うとき、情報が途中で切れてしまったり、古い文脈を忘れてしまったりする問題は多くのエンジニアが経験しているはずです。
そんな課題に対して、Voltropy社が発表したLCM(Lossless Context Management)という新しいアーキテクチャが注目を集めています。名前の通り「情報を失わずにコンテキストを管理する」というアプローチで、従来の要約や切り捨てとは根本的に異なる発想が面白いと感じました。
LCMが解決しようとしている問題
現在のLLMには、一度に処理できるトークン数に上限があります。Claude 3.5で200Kトークン、GPT-4で128Kトークンといった具合です。一見すると十分に思えますが、実際のアプリケーションでは以下のような場面で限界に達します。
- 大規模なコードベース全体を理解させたいとき
- 数百ページのドキュメントを参照しながら回答させたいとき
- 長時間にわたる対話で文脈を維持したいとき
従来のアプローチでは、古いメッセージを要約したり、関連性の低い部分を切り捨てたりして対処していました。しかし、この方法だと情報の損失が避けられません。「さっき話したあれ、覚えてる?」と聞いても、要約の過程で消えてしまっていることがあるわけですね。
LCMの核心 — 階層的DAGアーキテクチャ
LCMの最大の特徴は、コンテキスト情報を階層的DAG(有向非巡回グラフ)として構造化する点にあります。単純なテキストの羅列ではなく、情報間の依存関係や階層構造を保持したまま管理するという発想です。
たとえば、プロジェクトのコードレビューをLLMに依頼する場合を考えてみましょう。従来の方法では、関連ファイルを全部コンテキストに詰め込むか、手動で関連箇所を選んで渡す必要がありました。LCMでは、ファイル間の依存関係をDAGとして保持しているため、必要な情報を自動的に引き出せます。
LCMの3段階エスカレーション
LCMのもうひとつの重要な仕組みが、3段階エスカレーション(Three-Level Escalation)です。コンテキストの取得を段階的に行うことで、必要最小限のコストで必要な情報を確実に取得できるように設計されています。
レベル1:ローカルキャッシュ
直近の会話や頻繁にアクセスされる情報は、ローカルキャッシュに保持されます。ほとんどのクエリはこの段階で解決できるため、レイテンシーが非常に低く抑えられます。
レベル2:構造化インデックス
キャッシュにない情報は、DAG構造のインデックスから検索されます。GraphRAGと似た概念ですが、LCMではグラフ構造がリアルタイムに更新される点が異なります。
レベル3:フルスキャン
インデックスでも見つからない場合は、保存されている全コンテキストをスキャンします。コストは高いですが、情報の取りこぼしがゼロになることが保証されている点がLCMの「Lossless」の意味するところです。
LCMのゼロコスト継続性
LCMの論文で特に興味深かったのが、「ゼロコスト継続性と決定論的取得可能性」という概念です。これは、セッションの切断や再接続が発生しても、追加コストなしにコンテキストを完全に復元できるという特性を指しています。
実用的な場面で言えば、長時間の開発セッション中にPCを再起動しても、以前の文脈がそのまま復元されるイメージですね。トークン不安の記事で触れた「コンテキストが失われる恐怖」を技術的に解消するアプローチとも言えます。
LCMと既存技術の比較
LCMと比較されることが多い既存技術として、RAG(検索拡張生成)やプロンプトキャッシングがあります。
RAGは外部データベースから関連情報を検索してプロンプトに追加する手法で、現在最も広く使われているアプローチです。ただし、検索の精度に依存するため、関連性の低い情報が混入したり、本当に必要な情報が漏れたりすることがあります。
LCMはRAGの「検索して取得する」というパラダイムを維持しつつ、DAG構造による依存関係の追跡と3段階エスカレーションによる確実性を加えた形になっています。理論的にはRAGの上位互換と言えそうですが、実装の複雑さとのトレードオフは考慮が必要ですね。
今後の展望
LCMはまだ研究段階ではありますが、AIエージェントの長期的な記憶管理という観点で非常に重要な方向性を示しています。特にAIエージェントのハーネス設計においては、コンテキスト管理の効率化が実用性を大きく左右するため、LCMのようなアプローチへの需要は今後ますます高まっていくでしょう。
Voltropy社はVoltという統合プラットフォームも開発しており、LCMの商用実装を進めているようです。オープンソースでの公開があるかどうかは現時点では不明ですが、論文自体は公開されているので、興味のある方は目を通してみてください。
まとめ
LCM(Lossless Context Management)は、LLMのコンテキスト管理における情報損失を根本的に解決しようとする新しいアーキテクチャです。階層的DAG、3段階エスカレーション、ゼロコスト継続性という3つの柱で、従来の要約・切り捨てアプローチの限界を超えることを目指しています。
実装の複雑さという課題はありますが、AIエージェントの長期記憶管理が重要になる今後のトレンドを考えると、注目しておく価値のある技術だと思います。参考になれば幸いです。
