Claude Code

Claude Codeを無料で使う方法を検証してみた【結論:現実は厳しい】

2026年1月23日 6分で読める AQUA合同会社
Claude Codeを無料で使う方法を検証してみた【結論:現実は厳しい】

はじめに:Claude Codeを無料で使いたい!

Anthropic社のClaude Codeは、AIがコードを読み書きし、ターミナルでコマンドを実行できる革新的なコーディングツールです。

しかし、Claude Codeを使うには有料プラン(Proプラン月額3,400円〜)が必要。「無料で使えないの?」と思う方も多いはず。

そこで今回、Ollamaを使ってローカルの無料AIモデルでClaude Codeを動かせるか、実際に検証してみました。

結論から言うと:技術的には動くが、実用性は厳しい。

その理由を、実験結果とともに詳しく解説します。


Ollama × Claude Code連携とは

Ollamaは、ローカルでLLM(大規模言語モデル)を動かせるオープンソースツールです。

2025年末、OllamaがAnthropicのAPI形式に対応したことで、Claude CodeのUIでOllamaのモデルを使えるようになりました。

公式ドキュメントの説明

Ollamaの公式ドキュメントでは、以下のように設定すればClaude Codeでローカルモデルが使えると説明されています:

# 環境変数を設定
export ANTHROPIC_AUTH_TOKEN=ollama
export ANTHROPIC_BASE_URL=http://localhost:11434

# Claude Codeを起動
claude --model gpt-oss:20b

推奨モデルとして以下が挙げられています:

  • gpt-oss:20b – 汎用モデル(13GB)
  • gpt-oss:120b – 大規模汎用モデル(65GB)
  • qwen3-coder – コーディング特化モデル

「これなら無料でClaude Codeが使える!」と期待して、実際に検証してみました。


検証環境

項目 スペック
マシン MacBook Pro M4 Max
メモリ 128GB
Claude Code v2.1.17
Ollama 最新版
検証モデル gpt-oss:20b、gpt-oss:120b

※128GBメモリというハイスペック環境での検証です。一般的なPCではさらに厳しい結果になる可能性があります。


検証1:gpt-oss:20b(13GBモデル)

セットアップ

まず、比較的軽量な20Bモデルで試してみました。

# Ollamaサーバー起動
ollama serve

# 別ターミナルでClaude Code起動
export ANTHROPIC_AUTH_TOKEN=ollama
export ANTHROPIC_BASE_URL=http://localhost:11434
claude --model gpt-oss:20b

結果:起動は成功

Claude CodeのUIが立ち上がり、モデルが「gpt-oss:20b」と表示されました。

Claude Code with gpt-oss:20b - 起動成功
gpt-oss:20bでClaude Codeを起動。日本語にも対応している

簡単な挨拶には応答できました:

こんにちは!今日はどのようなお手伝いをいたしましょうか?

メモリ使用量

gpt-oss:20b メモリ使用量 13.5GB
Ollamaが約13.5GBのメモリを使用

Ollamaが約13.5GBのメモリを消費。20Bモデルとしては妥当な数値です。

実際のコーディングタスクを依頼

では本題。実際にコードを書いてもらいましょう。

カウントダウンタイマーのRemotionコンポーネントを作成して。
10秒からカウントダウンして0になったら「TIME'S UP!」と表示する。
デザインはモダンでかっこよくして。

結果:タスク失敗

⎿ Error searching files

⏺ I'm ready to help. What would you like to do next?

✻ Cogitated for 53s

53秒考えた結果、ファイル検索でエラーが発生し、「何をしますか?」と聞き返されて終了。

コードは一切生成されませんでした


検証2:gpt-oss:120b(65GBモデル)

「モデルサイズが小さいから失敗したのでは?」と考え、6倍大きい120Bモデルで再挑戦。

メモリ使用量:衝撃の61GB

gpt-oss:120b メモリ使用量 75GB
120Bモデルは約61GBのメモリを消費。128GB中61GBを使用

Ollamaのメモリ使用量が約61GBに跳ね上がりました。

システム全体で128GB中61GBを使用。一般的なPC(8〜16GBメモリ)では絶対に動きません。

応答速度:簡単な挨拶に47秒

gpt-oss:120b 応答に47秒
「こんにちは」への応答に47秒かかった
❯ こんにちは

⏺ こんにちは!今日はどのようなお手伝いをいたしましょうか?

✻ Cogitated for 47s

たった一言の挨拶に47秒。本家Claude Code(Opus 4.5)なら1秒未満で返答します。

コーディングタスクの結果

❯ カウントダウンタイマーのRemotionコンポーネントを作成して...

⏺ How can I assist you with your software engineering task?

✻ Churned for 1m 26s

1分26秒かけて「何を手伝いましょうか?」と返答。

120Bモデルでも、コードは一切生成されませんでした


なぜ動かないのか?技術的な解説

Claude Codeの仕組み

Claude Codeは単なるチャットボットではありません。内部でTool Use(関数呼び出し)という機能を使っています。

  • ファイルを読む → Read Tool
  • ファイルを書く → Write Tool
  • コマンド実行 → Bash Tool
  • ファイル検索 → Glob/Grep Tool

AIがこれらのツールを適切に呼び出すことで、実際のコーディング作業が可能になります。

問題:オープンモデルはTool Useに非対応

gpt-ossやqwen3などのオープンモデルは、Anthropic独自のTool Use形式で訓練されていません。

そのため:

  1. チャット応答 → 可能(普通の会話はできる)
  2. ツール呼び出し → 不可能(形式を理解できない)
  3. ファイル操作 → 失敗(ツールが使えないため)

結果として、Claude CodeのUIは表示されるものの、コアの機能が動作しない状態になります。


検証結果まとめ

項目 gpt-oss:20b gpt-oss:120b 本家 Opus 4.5
メモリ使用量 13.5GB 61GB クラウド実行
挨拶の応答時間 数秒 47秒 1秒未満
コーディングタスク 失敗 失敗 成功(1分で完了)
ツール使用 エラー 無視される 完全対応
実用性 × ×

結論:Claude Codeは本家を使うのが現実的

無料で使いたい気持ちはわかるが…

OllamaとClaude Codeの連携は技術的には可能です。UIは表示され、簡単な会話もできます。

しかし、Claude Codeの真価であるファイル操作・コード生成・コマンド実行は動作しません。

ローカルモデルの現実

  • 20Bモデル:13GBメモリ必要、タスク完了できず
  • 120Bモデル:61GBメモリ必要、それでもタスク完了できず
  • 応答速度:本家の数十倍遅い

おすすめの選択肢

  1. Claude Code本家(Proプラン月額3,400円〜)
    • 全機能が完璧に動作
    • Opus 4.5の高品質なコード生成
    • 高速レスポンス
  2. 無料でAIコーディングしたい場合
    • Claude.ai無料枠でコードを相談
    • GitHub Copilot無料枠
    • Cursor無料枠

最後に

「無料でClaude Codeを使う」という夢は、現時点では実現困難です。

将来的にオープンモデルがAnthropicのTool Use形式に対応すれば状況は変わるかもしれませんが、今のところは本家Claude Codeを使うのが最も効率的です。

月額3,400円で得られる生産性向上を考えれば、投資する価値は十分にあると思います。


関連記事

AI開発・導入のご相談はAQUA合同会社へ

「何から始めればいいか分からない」「費用感を知りたい」など、AI導入に関するご相談を無料で承っております。
大手SIerのような高額な費用は不要。経験豊富なエンジニアが直接対応します。

メール: お問い合わせフォームをご利用ください

この記事をシェア