Claude Codeの月額費用がネックになっている開発者に朗報です。
OllamaやOpenRouterを経由すれば、Claude Codeのインターフェースと操作感をそのままに、APIコストをゼロにできます。この記事ではセットアップ手順まで含めた3つの方法を具体的に解説します。
この記事でわかること
- OllamaでGLM-5.1クラウドモデルをClaude Codeに接続する手順
- Gemma 4をローカルで動かしてClaude Codeと連携する手順
- OpenRouterのElephant Alphaを無料で使う手順
なぜClaude Codeを無料で動かせるのか
Claude Codeはデフォルトでは、AnthropicのAPIと通信して利用量に応じたコストが発生します。ただし、Ollama v0.14以降からはAnthropicMessages API互換のエンドポイントが提供されており、Claude Codeはローカル環境のOllamaインスタンスへ直接つなぎ替えられます。OpenRouterも同様にAnthropicAPI互換のエンドポイントを提供しているため、無料枠のモデルに切り替えればAPIコストを発生させずに動作します。
方法1: OllamaでGLM-5.1クラウドモデルを使う
Z.ai(旧Zhipu AI)が2026年4月7日にリリースしたGLM-5.1は、SWE-Bench ProでGPT-5.4を上回る58.4点を記録したオープンソースモデルです。Ollamaは glm-5:cloud タグでGLM-5.1のクラウドAPIを中継しており、ローカルGPUなしに使えます。MITライセンス公開のため商用利用も問題ありません。
セットアップ
Claude Codeを手元にインストール済みであれば、以下のコマンドひとつで起動から接続設定まで完了します。
ollama launch claude
モデルを明示して起動する場合は --model オプションを指定します。
ollama launch claude --model glm-5:cloud
環境変数で手動設定する場合は次のように記述します。
export ANTHROPIC_AUTH_TOKEN=ollama
export ANTHROPIC_API_KEY=""
export ANTHROPIC_BASE_URL=http://localhost:11434
claude --model glm-5:cloud
性能と制約
GLM-5.1は754億パラメータのMixture-of-Expertsアーキテクチャを持ち、コーディング・エージェント実行の両面で高い評価を得ています。クラウド版の glm-5:cloud はAPIを経由するため、手元のGPUは不要です。ただし、通信はZ.aiのサーバーを経由するため、機密性の高いコードを扱う場合は注意が必要です。コンテキストウィンドウは200,000トークンに対応しています。
方法2: Gemma 4をローカルで動かす
GoogleのGemma 4は2026年4月2日にリリースされた31Bパラメータのオープンウェイトモデルです。LiveCodeBench v6で80.0%、AIME 2026の数学推論で89.2%を記録しており、Apache 2.0ライセンスで商用利用できます。ローカルで完全に動作するため、コードがデバイスの外に出ません。
セットアップ
まずOllamaでGemma 4のモデルを取得します。
ollama pull gemma4
取得後にClaude Codeと接続して起動します。
ollama launch claude --model gemma4
環境変数で設定する場合はこちらです。
export ANTHROPIC_AUTH_TOKEN=ollama
export ANTHROPIC_API_KEY=""
export ANTHROPIC_BASE_URL=http://localhost:11434
claude --model gemma4
動作環境の目安
31Bモデルを快適に動かすにはVRAM 24GB以上のGPUが目安です。Apple SiliconのMacであれば、M2 Pro以降のユニファイドメモリ36GB以上の構成で動作するという報告があります。日常的なコーディング作業の約70%はGemma 4で十分にカバーできますが、複雑なマルチファイルリファクタリングや深いアーキテクチャ設計が必要な場面ではクラウドモデルへの切り替えも選択肢になります。
方法3: OpenRouterのElephant Alphaを使う
Elephant Alphaは2026年4月13日にOpenRouterが公開した100Bパラメータのモデルです。アルファ版期間中は入出力ともに無料で利用できます。コード補完・デバッグ・ドキュメント処理・軽量エージェントタスクに最適化されており、コンテキストウィンドウは256Kトークン、最大出力は32Kトークンに対応しています。
セットアップ
まず openrouter.ai でアカウントを作成し、APIキーを発行します。次に以下の環境変数を設定して起動します。
export ANTHROPIC_AUTH_TOKEN=your_openrouter_api_key
export ANTHROPIC_API_KEY=""
export ANTHROPIC_BASE_URL=https://openrouter.ai/api/v1
claude --model openrouter/elephant-alpha
注意点
Elephant Alphaはアルファ版のため、入出力内容がプロバイダー側でログに記録され、モデル改善に使用される可能性があります。無料の提供期間は公式のアナウンスにより変更されます。業務上の機密コードを扱う場合は利用規約を確認してから使い始めることを推奨します。
3つの方法の使い分け
| 方法 | コスト | GPU | データの扱い |
|---|---|---|---|
| Ollama + GLM-5.1 cloud | 無料 | 不要 | Z.aiのクラウドを経由 |
| Ollama + Gemma 4 ローカル | 無料(電気代のみ) | 必要(VRAM 24GB+) | デバイス内で完結 |
| OpenRouter + Elephant Alpha | 無料(アルファ期間中) | 不要 | OpenRouterを経由・ログあり |
GPUを持っていない場合は方法1か方法3が現実的です。手元でデータを完結させたい場合は方法2を選びます。いずれの方法もClaude Codeのコマンドと操作手順はそのまま使えるため、既存のワークフローを大きく変える必要はありません。
まとめ
3つの方法を試してみて感じるのは、Claude Codeが「特定のモデルに縛られないツール」として成熟しつつあるという点です。Ollamaの互換レイヤーの登場でモデルの選択肢は急速に広がっており、今後もオープンウェイトモデルの性能向上が続けば、無料でも本格的な開発ワークフローを回せる環境はさらに整っていくでしょう。
