APIエージェントを「本当にプライベート」に動かしたいなら、APIキーをクラウドに送っている限りその目標は達成できません。
この記事では、自己ホスト型AIエージェントフレームワーク「OpenClaw」と、GoogleがApache 2.0で公開した最新オープンモデル「Gemma 4」を組み合わせて、データが一切外部へ出ないローカルAIエージェント環境を構築する手順を解説します。
この記事でわかること:
- OpenClawとGemma 4それぞれの概要と組み合わせる理由
- ハードウェア要件とモデルサイズの選び方
- Ollama経由でOpenClawをGemma 4に接続する設定手順
- SearXNGを使ったプライベートWeb検索の仕組み
APIキーは「本当に自己ホスト」できていない
OpenClawはWhatsApp・Telegram・Discord・Slackなど23以上のメッセージングプラットフォームに接続できる、自己ホスト型AIエージェントフレームワークです。
オーストリアの開発者Peter Steinberger氏が2025年11月に「Clawdbot」として公開し、2026年1月に名称を「OpenClaw」へ変更。GitHubスター数は初週で10万を超え、現在は25万以上に達しています。800以上のコミュニティスキルも公開されており、コード生成・ファイル操作・Webリサーチなど幅広い自動化が可能です。
多くのOpenClawユーザーはバックエンドにClaude・GPT-5.4・DeepSeekなどのクラウドAPIを使っていました。自分のサーバーでエージェントが動いていても、テキストはAPIプロバイダのサーバーを通過します。「自己ホスト」でありながら、プライバシーを完全に守ることはできていませんでした。
Gemma 4がその問題を解決する
Google DeepMindが2026年4月2日にApache 2.0ライセンスで公開した「Gemma 4」は、ネイティブの関数呼び出し・マルチモーダル入力・256Kコンテキストウィンドウを備えたオープンモデルファミリーです。
Gemma 4はOllamaを通じてローカルで動かせます。OpenClawはすでにOllamaをバックエンドとしてサポートしているため、この2つを接続すると次のことが実現します。
- ローカル推論 — 会話・ファイル・自動化結果がすべて手元のマシンに残る
- APIコストゼロ — トークン課金なし。ハードウェアが処理できる限り何度でも実行可能
- ネイティブな関数呼び出し — OpenClawのスキルシステムに必要なツール呼び出しをGemma 4がサポート
- 商用利用可 — Apache 2.0ライセンスのため、制限なく改変・配布・商用利用できる
モデルサイズの選び方
Gemma 4には4つのサイズがあります。OpenClaw用途での実用的な選び方をGoogleの公式ベンチマーク(τ2-bench)をもとに整理します。
| モデル | アクティブパラメータ | コンテキスト | ツール精度 | 推奨ユースケース |
|---|---|---|---|---|
| E2B | 2.3B | 128K | 29.4% | モバイル・エッジ |
| E4B | 4.5B | 128K | 57.5% | ラップトップ・軽量タスク |
| 26B MoE | 3.8B(総26B) | 256K | 85.5% | OpenClaw向け最適解 |
| 31B Dense | 31B | 256K | 86.4% | 高品質・ハイスペックマシン |
26B MoEモデルは推論時に3.8Bパラメータのみ起動するため、4Bモデル並みの速度でほぼ13Bクラスの品質を発揮します。RAM 20GB以上(Q4量子化時)またはApple Silicon 16GB以上で動作します。
ラップトップで試すならE4B(8GB RAM)、本番用途なら26B MoEが現実的な選択です。
OpenClawにGemma 4を接続する手順
まずOllamaをインストールし、Gemma 4の26Bモデルを取得します。
# Ollamaのインストール
curl -fsSL https://ollama.com/install.sh | sh
# Gemma 4 26B MoEモデルを取得
ollama pull gemma4:26b
次にOpenClawの設定ファイルを編集します。設定ファイルは ~/.openclaw/openclaw.json にあります。
{
"defaultModel": "ollama/gemma4:26b",
"providers": {
"ollama": {
"baseUrl": "http://localhost:11434"
}
}
}
注意点が1つあります。OllamaのOpenAI互換エンドポイント(/v1)ではなく、ネイティブAPIのURL(http://localhost:11434)を指定してください。/v1エンドポイントはツール呼び出しが正しく動作しません。
プライベートなWeb検索を追加する
OpenClawにはSearXNGとの連携スキルがあります。SearXNGはセルフホスト型のメタ検索エンジンで、Google APIへのリクエストなしにWeb検索を実行できます。
Dockerで起動する場合は以下のコマンドです。
docker run -d -p 8888:8080 searxng/searxng
OpenClawの設定にSearXNGのURLを追加すると、AIエージェントがWeb検索を実行する際もデータが外部に出ません。Gemma 4の26BモデルはSearXNGからの検索結果を受け取ってツール呼び出しで処理する精度が85.5%あるため、実用的なリサーチエージェントとして機能します。
クラウドAPIとの比較
OpenClawでGemma 4をローカル実行した場合とクラウドAPIを使った場合の主な違いを整理します。
| Gemma 4(ローカル) | クラウドAPI | |
|---|---|---|
| コスト | ゼロ(ハードウェアのみ) | 従量課金 |
| プライバシー | 完全ローカル | プロバイダのサーバーを経由 |
| レイテンシ | ハードウェア依存 | ネットワーク依存 |
| 最新情報 | 学習データのカットオフまで | APIにより異なる |
| ライセンス | Apache 2.0 | プロバイダの利用規約 |
クラウドAPIの利点は最新モデルへのアクセスと応答速度の安定性です。社内ドキュメントや個人情報を扱うエージェントを運用する場合、ローカル実行のほうがリスクを明確にコントロールできます。
まとめ
OpenClaw × Gemma 4の組み合わせは、APIコストゼロかつ完全プライベートなAIエージェント環境を現実的なハードウェア要件で実現します。26B MoEモデルを選ぶと、ラップトップより少し上のスペックで実用的なツール呼び出し精度(85.5%)を確保できます。WhatsApp・Telegram・Discordなど普段使いのチャットアプリを入り口にしながら、個人データを外部に出さない自動化環境を構築したい人に向いた構成です。