Claude Codeで作業していると、ファイルの中身、ログ、検索結果、Web取得の本文が一気に会話へ流れ込みます。便利な反面、長いセッションでは文脈が圧迫され、後半になるほど精度が落ちます。Context Modeはこの問題を正面から解決するMCPサーバーです。

https://mksg.lu/blog/context-mode

Context Modeの狙いはシンプルです。大きな出力をそのままモデルに食わせず、サンドボックス側で処理して要点だけ返します。これでコンテキストウィンドウの浪費を減らし、長い作業でも流れを保ちやすくなります。特に、調査、実装、検証を何度も往復する開発では効果が大きいです。

何を解決するのか

AIエージェントは、賢さ以前に「入ってくる情報量」で失速します。たとえば、大きなJSON、スクレイピング結果、gh の一覧、Playwrightのスナップショットは、そのまま入れると一発で文脈を食います。Context Modeは、こうした生データを会話に直送せず、必要な結果だけを返す設計です。モデルは要約と検索結果を受け取り、詳細はローカル側に残します。

この方式の利点は、単にトークンを節約するだけではありません。余計な情報を会話から外すことで、モデルの判断軸がぶれにくくなります。長時間のタスクでも、直前の雑音に引きずられにくくなるのが実用上の価値です。

主な仕組み

Context Modeは、ツール呼び出しをサンドボックス化して扱います。実行結果のうち、会話に必要な部分だけを返し、それ以外はローカルのSQLiteベースに蓄積します。さらに、FTS5とBM25系の検索で過去の断片を引けるため、セッションが切れても再開しやすい構造です。

公開されている説明では、ctx_executectx_execute_filectx_indexctx_searchctx_fetch_and_index といった機能が並びます。つまり、実行、保存、再検索、再投入までを一連の流れとして扱う設計です。単なるログ保管ではなく、次の判断に使える形へ圧縮する点が重要です。

どう使うか

導入自体はMCPサーバーとして登録する形です。Claude Codeだけでなく、Codex CLI、Gemini CLI、Cursor、VS Code Copilot などにも対応しています。ひとつの開発環境に閉じず、複数のAIクライアントで同じ発想を使えるのは強みです。

使い方の発想は分かりやすいです。大きなファイルを読ませる前に ctx_execute_file を使う。大量ログを解析したいときは、先にサンドボックスで絞り込む。複数のコマンド結果をまとめたいときは ctx_batch_execute を使う。会話に入れるのは要点だけにします。

既存のMCPサーバーとの違い

一般的なMCPサーバーは、外部ツールをAIにつなぐことが主目的です。Context Modeはそこから一歩進み、コンテキストの使い方自体を制御します。ツールが増えれば便利になりますが、同時に文脈は壊れやすくなります。この矛盾を、実行の隔離と検索可能な記録で処理しているのが特徴です。

同じMCPでも、単純な機能追加ではなく「会話の寿命を延ばす」方向に振っている点が違います。長い実装、調査、デバッグをAIに任せる人ほど、この差は効きます。

向いている人

Context Modeは、Claude Codeを長時間使う人に向いています。特に、リポジトリ全体をまたぐ修正、外部APIの調査、ログ解析、複数ステップの検証を繰り返す作業です。短いQ&Aより、状態を持ち越す作業で価値が出ます。

逆に、短い単発の相談だけなら恩恵は小さいです。大きな出力や作業履歴を抱え込む場面でこそ、このサーバーの意味があります。AIエージェントが強くなるほど、文脈の整理は重要になります。Context Modeは、そのボトルネックに直接効く道具です。