Claude Codeは間違いなく2026年最強のAIコーディングツールです。しかし最大の壁は料金——Maxプランで月額$100〜$200。「試してみたいけど、いきなりその金額は…」と思った方も多いはずです。
そこに登場したのがOllama公式のClaude Code統合。オープンソースのAIモデルをClaude Codeの強力なエージェント機能で動かせるようになりました。つまり、完全無料でClaude Code体験ができる時代が来たのです。
この記事では、筆者が実際にMacBook Pro M4 Max(128GB)で3つのモデルを徹底テストした結果をお伝えします。結論を先に言うと——使えます。ただし、知っておくべきトレードオフがあります。
この記事の内容
なぜ今「Claude Code × Ollama」なのか
2025年末、OllamaがAnthropic互換APIを公式実装しました。これにより、Claude Codeのエージェント機能(ファイル操作、コード生成、コマンド実行、サブエージェント)をオープンソースモデルでそのまま動かせるようになったのです。
以前は非公式なプロキシや不安定なハックが必要でしたが、今はollama launch claudeの一発コマンドで完了します。
Claude Codeの料金問題
| プラン | 月額料金 | 内容 |
|---|---|---|
| Claude Max 5x | $100/月(約15,000円) | Opus 4.6 + Sonnet + Haiku |
| Claude Max 20x | $200/月(約30,000円) | Max 5xの4倍の使用量 |
| API従量課金 | 使った分だけ | Opus: $15/M入力, $75/M出力 |
| Ollama経由(本記事) | $0 | オープンソースモデルで代替 |
月額$100〜$200は個人開発者にはかなりの負担です。Ollama連携ならその投資なしにClaude Codeのエージェント機能を体験できます。
5分でできるセットアップ
セットアップは驚くほど簡単です。
方法1:ワンコマンド起動(推奨)
# Ollamaをインストール(未導入の場合)
# https://ollama.com からダウンロード
# Claude Codeモードで起動
ollama launch claude
これだけです。対話的にモデルを選択でき、環境変数も自動設定されます。
方法2:手動設定(細かくカスタマイズしたい場合)
# 環境変数を設定
export ANTHROPIC_AUTH_TOKEN="ollama"
export ANTHROPIC_API_KEY=""
export ANTHROPIC_BASE_URL="http://localhost:11434"
# 好きなモデルを指定してClaude Code起動
claude --model glm-5:cloud
claude --model qwen3-coder-next
claude --model gpt-oss:20b
クラウドモデルを使う場合
Ollamaアカウントでサインインすると、ローカルにGPUがなくてもクラウド経由でモデルを実行できます。
# Ollamaにサインイン
ollama signin
# クラウドモデルを実行(:cloudタグ)
claude --model glm-5:cloud
claude --model gpt-oss:20b # クラウドでも実行可能
クラウドモデルならPCスペックに関係なく利用できるため、エントリーレベルのマシンでも問題ありません。
3モデル実機テスト — 速度・品質・デザイン全比較
ここからが本記事の核心です。筆者がMacBook Pro M4 Max(128GB)で実際に3モデルをテストした結果を共有します。
テスト環境
- マシン:MacBook Pro M4 Max, 128GB RAM
- Ollama:最新版
- Claude Code:最新版
- テスト内容:Webサイト(ホームページ)の生成、コード生成・修正
テスト結果
| モデル | パラメータ | 実行環境 | 速度 | コード品質 | デザイン力 | 総合評価 |
|---|---|---|---|---|---|---|
| GLM-5 | 744B (40B active) | クラウド | ⭐☆☆☆☆ | ⭐⭐⭐⭐⭐ | ⭐⭐⭐⭐⭐ | 品質は本物、速度が致命的 |
| Qwen3-Coder-Next | 80B (3B active) | ローカル | ⭐⭐☆☆☆ | ⭐⭐⭐⭐⭐ | ⭐⭐⭐⭐⭐ | GLM-5と同品質、やや速い |
| GPT-OSS:20B | 20B | クラウド | ⭐⭐⭐⭐⭐ | ⭐⭐⭐☆☆ | ⭐⭐⭐☆☆ | 爆速だが品質に課題 |
| GPT-OSS:120B | 120B | クラウド | ⭐⭐⭐⭐☆ | ⭐⭐⭐☆☆ | ⭐⭐⭐☆☆ | 20Bと大差なし |
GLM-5 — 「品質はClaude 4.5レベル、でもとにかく遅い」
GLM-5はZhipu AIが開発した744Bパラメータ(40Bアクティブ)のMoEモデルです。SWE-bench Verifiedで77.8%という高スコアを記録しています。
実際に使ってみると、コードの品質は確かにClaude 4.5レベルでした。ホームページを作らせてもデザインセンスが良く、コード構造も綺麗。開発者として「これは使える」と思える品質です。
しかし問題はとにかく遅いこと。簡単なタスクでも応答に時間がかかり、本家Claude Codeの「サクサク感」とは程遠い体験でした。Claude Codeは本来Opus/Sonnet/Haikuの3層で処理を分散させますが、Ollama経由では全タスクがGLM-5の重い推論を通るため、ファイル検索のような軽い処理まで遅くなります。
Qwen3-Coder-Next — 「GLM-5と同品質、やや速い。ローカルの本命」
Qwen3-Coder-NextはAlibaba Qwenチームの80Bパラメータ(3Bアクティブ)モデルです。256Kトークンの巨大コンテキストウィンドウを持ち、SWE-bench Verifiedで70.6%を達成しています。
GLM-5とほぼ同等の品質を維持しながら、レスポンスはGLM-5より少し速い印象でした。アクティブパラメータが3Bと軽量なMoE設計のおかげで、M4 Maxとの相性が良いのでしょう。52GBモデルが128GBメモリに余裕で載ります。
ローカルで高品質を求めるなら現時点の最適解です。完全無料、無制限、プライバシーも保護されます。
GPT-OSS:20B / 120B — 「爆速、でも開発者には物足りない」
GPT-OSSはOpenAIがオープンソースで公開したモデルです。20Bと120Bの2サイズがあります。
速度は圧倒的に速い。クラウド実行ではサクサク応答が返ってきます。ただし、コードの品質は開発者目線では微妙でした。動くコードは書けますが、細かい設計判断やエッジケースの処理に不満が残ります。デザインも、細かく指示しないと微妙な仕上がりになりがちです。
興味深いのは、120Bモデルでも20Bと品質に大きな差が見られなかったこと。速度を優先するなら20Bで十分です。
ローカル vs クラウド — どっちが正解?
Ollamaのモデルはローカル実行とクラウド実行を選べます。この選択が体験を大きく左右します。
| ローカル実行 | クラウド実行 | |
|---|---|---|
| 料金 | 完全無料 | 無料枠あり(週次リセット) |
| 使用量制限 | 無制限 | プランによる制限あり |
| 速度 | 遅め(GPUスペック依存) | 高速 |
| PC要件 | 高い(M4 Max 128GBでもネック) | 問わない |
| プライバシー | 完全ローカル処理 | Ollamaサーバー経由 |
| オフライン | 可能 | 不可 |
| 対応モデル | Qwen3-Coder-Next, GPT-OSS | GLM-5, GPT-OSS |
ローカル:完全無料・無制限だが、マシンパワーが必要
ローカル実行の最大のメリットは完全無料で無制限という点です。何時間使っても、何日使っても、一切の制限がありません。
ただし、MacBook Pro M4 Max(128GB)でテストしても、速度面ではクラウドに大きく劣りました。Apple Silicon最上位モデルでこの結果なので、一般的なPCではさらに厳しいでしょう。
クラウド:速度は快適、無料枠で十分使える
Ollamaのクラウドモデルは、PCスペックに関係なく高速に動作します。GPT-OSSクラウドの速度は特に印象的で、本家Claude Codeに近い「サクサク感」がありました。
無料枠は週ごとにリセットされるため、一般的な個人利用なら十分な量が使えます。
無料枠の現実 — どこまでタダで使えるのか
「本当に無料で使えるの?」——一番気になるポイントに正直に答えます。
Ollamaの料金プラン
| プラン | 月額 | クラウド使用量 | 想定ユーザー |
|---|---|---|---|
| Free | $0 | ライトユース | 学習・お試し |
| Pro | $20 | 日常利用に十分 | 日常の開発作業 |
| Max | $100 | Proの5倍 | ヘビーユーザー・バッチ処理 |
実際の無料枠体感
実際にFreeプランで使ってみた結果:
- GPT-OSS:20B / 120B:驚くほど潤沢。1日中使って30日経っても制限に引っかからなかった。実質使い放題に近い感覚
- GLM-5(クラウド):かなり使える。ただし応答が遅いため、そもそも大量にリクエストを送りにくい(結果的に枠を消費しにくい)
- ローカル実行:当然ながら完全無制限。Qwen3-Coder-NextもGPT-OSSもローカルなら制限なし
クラウドの使用量は週ごとにリセットされます。月曜に使い切っても、翌週にはまた使えます。
なお、OllamaのProプラン($20/月)にアップグレードすれば、クラウドモデルの使用量が大幅に増えます。個人で使う分にはクラウドでもほぼ使い放題に近いレベルになるため、ローカル環境のスペックに不安がある方はProプランが最もコスパの良い選択肢です。Claude Code本家のMax($100〜$200/月)と比べれば5分の1〜10分の1の投資でAIコーディング環境が手に入ります。
注意:複数アカウントを作成してAPIキーをローテーションすれば制限を回避できるという情報もありますが、OllamaのFair Use Policyには「prevent abuse」と明記されています。制限回避を目的とした複数アカウントの作成はポリシーに抵触する可能性があるため、推奨しません。Freeプランの正規の枠内でも、一般的な個人利用には十分です。
本家Claude Codeとの正直な比較
ここで正直に書きます。Ollama経由のClaude Codeと、本家Claude Code(Max $100〜$200/月)は何が違うのか。
本家だけが持つ3つの優位性
- 3層アーキテクチャ:本家Claude Codeは、Opus 4.6(重い推論)、Sonnet(サブエージェント)、Haiku(高速ルックアップ)の3モデルをタスクに応じて使い分けます。Ollama経由では全タスクが1つのモデルで処理されるため、軽い処理も重くなります
- 並列処理:本家Opusは複数のファイルを同時に読み込み、操作をバッチ実行します。ローカルモデルは基本的にシーケンシャル(逐次)処理になりがちです
- 品質 × 速度の両立:GLM-5は品質が高いが遅い。GPT-OSSは速いが品質が落ちる。本家Claude Opus 4.6は品質も速度も高水準で両立しています。これこそが月額$100〜$200の価値です
Ollama経由で十分なケース
- AIコーディングツールを試してみたい(初期投資ゼロ)
- 学習目的でClaude Codeの操作感を覚えたい
- 個人プロジェクトで品質は少し妥協できるが、AIアシスタントが欲しい
- プライバシーが最優先でコードを外部に送りたくない(ローカル実行)
本家に切り替えるべきタイミング
- 速度と品質の両方が仕事で必要になった
- 大規模なコードベース(10万行+)を扱うようになった
- Ollamaの無料枠では作業量が足りなくなった
- Claude Codeの価値を実感し、投資対効果が明確になった
Ollama経由は「Claude Codeの世界への入口」として最適。まず無料で試して、価値を実感してから本家に移行する——これが最もスマートな始め方です。
用途別おすすめ構成
テスト結果を踏まえた、用途別のおすすめ構成です。
学習・実験向け:GPT-OSS:20B クラウド
- 理由:高速レスポンスで試行錯誤が快適。無料枠も潤沢
- 向いている人:Claude Codeを初めて使う人、AIコーディングツールの感覚を掴みたい人
- 注意点:コード品質が高水準ではないため、出力をそのまま本番に使わない
個人開発・品質重視:Qwen3-Coder-Next ローカル
- 理由:Claude 4.5レベルの品質が完全無料・無制限。プライバシーも確保
- 向いている人:M4 Max 128GB級のマシンを持っている人、品質にこだわる個人開発者
- 注意点:速度は遅め。忍耐力が必要
品質重視・PC低スペック:GLM-5 クラウド
- 理由:Qwen3-Coder-Nextと同等の高品質をPCスペック問わず利用可能
- 向いている人:高性能マシンを持っていないが、品質を妥協したくない人
- 注意点:かなり遅い。時間に余裕があるときに
仕事・本格開発:Claude Code 本家(Max)
- 理由:速度◎品質◎の3層アーキテクチャ。結局これが最も生産的
- 向いている人:開発を仕事にしている人、時間の価値が高い人
- 料金:Max $100/月〜
トラブルシューティング — 知らないとハマる落とし穴
Ollama × Claude Code連携は簡単にセットアップできますが、いくつかの落とし穴があります。筆者が実際にハマった問題と解決策をまとめます。
【最重要】Ollama連携を解除するとClaude Codeがバグる
これが最大の注意点です。Ollama連携後に元のClaude Code(本家API)に戻そうとすると、Claude Codeが正常に動作しなくなるケースがあります。
筆者の場合、Ollamaとの連携をテスト後に環境変数を元に戻したのですが、Claude Codeの挙動がおかしくなりました。設定のリセットや環境変数の再確認では解決せず、結局Claude Codeをアンインストールして再インストールするハメになりました。
なぜこうなるのか
Ollama連携はANTHROPIC_BASE_URLやANTHROPIC_AUTH_TOKENなどの環境変数でClaude Codeの接続先を書き換える仕組みです。問題は、Claude Codeが内部的にキャッシュや設定ファイルにこれらの値を保持している可能性があること。環境変数を戻しても、内部状態が完全にはリセットされないのです。
推奨する対処法
- 専用のシェルプロファイルを使う:
.zshrcに直接書くのではなく、Ollama用の環境変数は別スクリプトにまとめる
# ollama-env.sh(Ollama連携時だけsourceする)
export ANTHROPIC_AUTH_TOKEN="ollama"
export ANTHROPIC_API_KEY=""
export ANTHROPIC_BASE_URL="http://localhost:11434"
# 使用時
source ollama-env.sh
claude --model qwen3-coder-next
# 終了後は新しいターミナルセッションを開く(変数がクリア)
- ターミナルセッションを分ける:Ollama用のターミナルタブと本家用のタブを完全に分離し、環境変数が混ざらないようにする
- 最悪の場合はクリーンインストール:連携解除後にClaude Codeの動作がおかしくなったら、迷わずアンインストール→再インストール。下手に設定をいじり回すより確実に早い
# Claude Codeのアンインストール
npm uninstall -g @anthropic-ai/claude-code
# 設定ファイルも削除(必要に応じて)
rm -rf ~/.claude
# 再インストール
npm install -g @anthropic-ai/claude-code
教訓:Ollama連携はあくまで「別環境」として扱うこと。本家Claude Codeと同じ環境で切り替えて使おうとすると痛い目に遭います。
セットアップ時のよくあるエラー
「Connection refused」エラー
Claude Codeを起動しても接続できない場合、Ollamaサーバーが起動していない可能性があります。
# Ollamaが起動しているか確認
ollama list
# 起動していなければ
ollama serve
また、ANTHROPIC_BASE_URLのポート番号(デフォルト11434)が正しいか確認してください。他のサービスとポートが競合している場合があります。
「Model not found」エラー
クラウドモデルを使う場合は、事前にollama signinでログインが必要です。ローカルモデルの場合は、まずモデルをダウンロードしてください。
# ローカルモデルのダウンロード
ollama pull qwen3-coder-next
ollama pull gpt-oss:20b
# ダウンロード済みモデルの確認
ollama list
ローカル実行で「out of memory」
モデルサイズがマシンのメモリを超えている場合に発生します。量子化(q4_K_M)バージョンを使うことでメモリ使用量を削減できます。
# フルサイズ(85GB)の代わりに量子化版(52GB)を使用
ollama pull qwen3-coder-next:q4_K_M
応答が途中で止まる・タイムアウト
大きなコードベースを扱う際に、コンテキストウィンドウの上限に達して応答が止まることがあります。Claude Codeは最低64Kトークンのコンテキストを推奨していますが、複雑なタスクでは128K以上が望ましいです。
# コンテキストサイズを明示的に指定
OLLAMA_CONTEXT_LENGTH=131072 claude --model qwen3-coder-next
パフォーマンス改善のコツ
- 不要なアプリを閉じる:ローカル実行時はRAMとGPUリソースの確保が重要。ブラウザのタブを減らすだけでも体感が変わる
- クラウドとローカルを使い分ける:速度が欲しい場面ではGPT-OSSクラウド、品質が欲しい場面ではQwen3ローカル、と切り替える
- タスクを小さく分割する:「このファイル全体をリファクタして」より「この関数のエラーハンドリングを改善して」のほうが、モデルの負荷が小さく速い応答が得られる
- プロジェクトのスコープを絞る:Claude Codeにプロジェクト全体を読み込ませず、作業対象のディレクトリに移動してから起動する
よくある質問(FAQ)
Q1. Ollamaは本当に無料ですか?
はい。Ollamaのソフトウェア自体は無料でオープンソースです。ローカル実行は完全無料・無制限。クラウドモデルにはFree/Pro($20)/Max($100)のプランがありますが、Freeプランでも一般的な個人利用には十分な枠が提供されています。
Q2. ローカル実行に必要なPCスペックは?
最低16GB RAM、推奨32GB以上。Qwen3-Coder-Nextの52GBモデルを動かすには64GB以上が望ましいです。Apple Silicon Mac(M2 Pro以上)またはNVIDIA GPU(16GB VRAM以上)が推奨。筆者はM4 Max 128GBでテストしましたが、それでもクラウドより遅いと感じました。
Q3. Claude Codeの全機能が使えますか?
ファイル操作、コード生成、コマンド実行などの主要機能は動作します。ただし、本家Claude Codeの3層モデル切り替え(Opus/Sonnet/Haiku)は再現されず、全タスクが単一モデルで処理されます。これが速度低下の主な原因です。
Q4. 本家Claude Codeから乗り換えるべきですか?
仕事で使っている方は本家を維持すべきです。Ollama経由は「まだ本家を使ったことがない方の入口」、あるいは「プライバシー最優先のケース」、「サブマシンでの補助的な利用」に最適です。
Q5. GPT-OSSとQwen3-Coder-Next、どちらがおすすめ?
速度重視ならGPT-OSS(クラウド)、品質重視ならQwen3-Coder-Next(ローカル)です。まずGPT-OSSで使い勝手を試し、品質に不満を感じたらQwen3に切り替えるのが効率的です。
Q6. クラウドモデルのデータプライバシーは大丈夫?
Ollama公式では「We don’t store your prompts or outputs(プロンプトや出力は保存しない)」「Ollama does not record, log or train on any prompt or response data(記録、ログ、学習に使用しない)」と明言しています。ただし、機密性の高いコードを扱う場合はローカル実行をおすすめします。
まとめ — 無料で始めて、価値を実感してから投資する
3モデルを実際にテストした結論をまとめます。
3つのキーテイクアウェイ
- Claude Codeは無料で使える。Ollama公式統合により、オープンソースモデルでClaude Codeのエージェント機能を体験可能
- 品質と速度はトレードオフ。GLM-5/Qwen3-Coder-NextはClaude 4.5レベルの品質だが遅い。GPT-OSSは爆速だが品質に課題。両方を高水準で満たすのは本家Claude Opus 4.6のみ
- 無料枠は想像以上に使える。ローカルは完全無制限、クラウドも週次リセットで個人利用に十分な枠。GPT-OSSなら30日使い続けても枠が余る
今日から始める3ステップ
- Ollamaをインストールして
ollama launch claudeを実行 - GPT-OSS:20BクラウドでまずClaude Codeの操作感を掴む
- 品質が欲しくなったらQwen3-Coder-Nextローカルに切り替え、最終的に本家への移行を検討
「本当に$100/月の価値があるのか?」——その答えを、まず無料で試して自分の目で確かめる。それが2026年のスマートなAIコーディングの始め方です。