APIエージェントを「本当にプライベート」に動かしたいなら、APIキーをクラウドに送っている限りその目標は達成できません。

この記事では、自己ホスト型AIエージェントフレームワーク「OpenClaw」と、GoogleがApache 2.0で公開した最新オープンモデル「Gemma 4」を組み合わせて、データが一切外部へ出ないローカルAIエージェント環境を構築する手順を解説します。

この記事でわかること:

  • OpenClawとGemma 4それぞれの概要と組み合わせる理由
  • ハードウェア要件とモデルサイズの選び方
  • Ollama経由でOpenClawをGemma 4に接続する設定手順
  • SearXNGを使ったプライベートWeb検索の仕組み

APIキーは「本当に自己ホスト」できていない

OpenClawはWhatsApp・Telegram・Discord・Slackなど23以上のメッセージングプラットフォームに接続できる、自己ホスト型AIエージェントフレームワークです。

オーストリアの開発者Peter Steinberger氏が2025年11月に「Clawdbot」として公開し、2026年1月に名称を「OpenClaw」へ変更。GitHubスター数は初週で10万を超え、現在は25万以上に達しています。800以上のコミュニティスキルも公開されており、コード生成・ファイル操作・Webリサーチなど幅広い自動化が可能です。

多くのOpenClawユーザーはバックエンドにClaude・GPT-5.4・DeepSeekなどのクラウドAPIを使っていました。自分のサーバーでエージェントが動いていても、テキストはAPIプロバイダのサーバーを通過します。「自己ホスト」でありながら、プライバシーを完全に守ることはできていませんでした。

Gemma 4がその問題を解決する

Google DeepMindが2026年4月2日にApache 2.0ライセンスで公開した「Gemma 4」は、ネイティブの関数呼び出し・マルチモーダル入力・256Kコンテキストウィンドウを備えたオープンモデルファミリーです。

Gemma 4はOllamaを通じてローカルで動かせます。OpenClawはすでにOllamaをバックエンドとしてサポートしているため、この2つを接続すると次のことが実現します。

  • ローカル推論 — 会話・ファイル・自動化結果がすべて手元のマシンに残る
  • APIコストゼロ — トークン課金なし。ハードウェアが処理できる限り何度でも実行可能
  • ネイティブな関数呼び出し — OpenClawのスキルシステムに必要なツール呼び出しをGemma 4がサポート
  • 商用利用可 — Apache 2.0ライセンスのため、制限なく改変・配布・商用利用できる

モデルサイズの選び方

Gemma 4には4つのサイズがあります。OpenClaw用途での実用的な選び方をGoogleの公式ベンチマーク(τ2-bench)をもとに整理します。

モデル アクティブパラメータ コンテキスト ツール精度 推奨ユースケース
E2B 2.3B 128K 29.4% モバイル・エッジ
E4B 4.5B 128K 57.5% ラップトップ・軽量タスク
26B MoE 3.8B(総26B) 256K 85.5% OpenClaw向け最適解
31B Dense 31B 256K 86.4% 高品質・ハイスペックマシン

26B MoEモデルは推論時に3.8Bパラメータのみ起動するため、4Bモデル並みの速度でほぼ13Bクラスの品質を発揮します。RAM 20GB以上(Q4量子化時)またはApple Silicon 16GB以上で動作します。

ラップトップで試すならE4B(8GB RAM)、本番用途なら26B MoEが現実的な選択です。

OpenClawにGemma 4を接続する手順

まずOllamaをインストールし、Gemma 4の26Bモデルを取得します。

# Ollamaのインストール
curl -fsSL https://ollama.com/install.sh | sh

# Gemma 4 26B MoEモデルを取得
ollama pull gemma4:26b

次にOpenClawの設定ファイルを編集します。設定ファイルは ~/.openclaw/openclaw.json にあります。

{
  "defaultModel": "ollama/gemma4:26b",
  "providers": {
    "ollama": {
      "baseUrl": "http://localhost:11434"
    }
  }
}

注意点が1つあります。OllamaのOpenAI互換エンドポイント(/v1)ではなく、ネイティブAPIのURL(http://localhost:11434)を指定してください。/v1エンドポイントはツール呼び出しが正しく動作しません。

プライベートなWeb検索を追加する

OpenClawにはSearXNGとの連携スキルがあります。SearXNGはセルフホスト型のメタ検索エンジンで、Google APIへのリクエストなしにWeb検索を実行できます。

Dockerで起動する場合は以下のコマンドです。

docker run -d -p 8888:8080 searxng/searxng

OpenClawの設定にSearXNGのURLを追加すると、AIエージェントがWeb検索を実行する際もデータが外部に出ません。Gemma 4の26BモデルはSearXNGからの検索結果を受け取ってツール呼び出しで処理する精度が85.5%あるため、実用的なリサーチエージェントとして機能します。

クラウドAPIとの比較

OpenClawでGemma 4をローカル実行した場合とクラウドAPIを使った場合の主な違いを整理します。

Gemma 4(ローカル) クラウドAPI
コスト ゼロ(ハードウェアのみ) 従量課金
プライバシー 完全ローカル プロバイダのサーバーを経由
レイテンシ ハードウェア依存 ネットワーク依存
最新情報 学習データのカットオフまで APIにより異なる
ライセンス Apache 2.0 プロバイダの利用規約

クラウドAPIの利点は最新モデルへのアクセスと応答速度の安定性です。社内ドキュメントや個人情報を扱うエージェントを運用する場合、ローカル実行のほうがリスクを明確にコントロールできます。

まとめ

OpenClaw × Gemma 4の組み合わせは、APIコストゼロかつ完全プライベートなAIエージェント環境を現実的なハードウェア要件で実現します。26B MoEモデルを選ぶと、ラップトップより少し上のスペックで実用的なツール呼び出し精度(85.5%)を確保できます。WhatsApp・Telegram・Discordなど普段使いのチャットアプリを入り口にしながら、個人データを外部に出さない自動化環境を構築したい人に向いた構成です。