Apple

MacBook Air M5 AI開発レビュー|Claude Code・ローカルLLM・MLXを1.23kgで使い倒す

2026年3月5日 30分で読める AQUA合同会社
MacBook Air M5 AI開発レビュー|Claude Code・ローカルLLM・MLXを1.23kgで使い倒す


MacBook Air M5 AI開発レビュー|Claude Code・ローカルLLM・MLXを1.23kgで使い倒す

2026年、AI開発の意味が変わった。AIツールを使ってソフトウェアを作ることがAI開発だ。Claude Code (Opus 4.6) が20ファイルを横断してリファクタリングし、テストを書き、Gitにコミットする。Codex CLIがサンドボックスでコードを検証し、Gemini CLIがGoogleエコシステムと統合する。

これらのクラウドAI CLIツールが最高の状態で動く最軽量マシンが、MacBook Air M5だ。1.23kg、ファンレス、18時間バッテリー。ローカルLLMも動く — だがそれはボーナスであって主役ではない。ここを間違えると、「Neural Accelerator 4倍速!」に踊らされて買い物を失敗する。本記事では、AI時代の開発マシンとしてのMacBook Air M5を、現実に即して徹底レビューする。

目次

  1. AI開発の現実 — クラウドAIとローカルLLMの本当の実力差
  2. MacBook Air M5が「最強のポータブルAI開発マシン」である5つの理由
  3. 全スペック・価格一覧
  4. CTOオプションと価格
  5. クラウドAI開発環境 — 主役のツールたち
  6. メモリの本当の選び方 — ローカルLLMじゃなく開発ツールで決める
  7. M5 vs M4 — AI開発で何が変わったか
  8. ローカルLLMの現実的な使い方
  9. MLXとGPU Neural Accelerator — 技術的に何が起きてるか
  10. 画像生成AI・Whisper音声認識
  11. ファンレスの本当の価値と限界
  12. MacBook Neo vs Air M5 vs Pro — 予算別ガイド
  13. 結論 — 誰がMacBook Air M5を買うべきか

AI開発の現実 — クラウドAIとローカルLLMの本当の実力差

まず、2026年のAI開発で何が起きているかを正直に書く。

Claude Code (Opus 4.6) は、プロジェクト全体を理解した上で、20ファイルを横断するリファクタリングを実行し、テストを書き、Gitにコミットし、CIの失敗を修正する。人間が1日かかる作業を数分で終わらせる。これがクラウドAIの実力だ。

具体例を挙げる。Next.jsプロジェクトでPages RouterからApp Routerへ移行するとき、Claude Codeは40以上のファイルを自律的に書き換え、ルーティング構造を再設計し、useClientディレクティブを適切に配置し、テストを修正してパスさせた。1つのプロンプトで、だ。Claude Codeの詳しい使い方は「Claude Code 初心者完全ガイド」で解説している。同じタスクをローカル8Bモデルに投げると、1ファイル目の途中で破綻する。コンテキストウィンドウが足りず、プロジェクト全体の依存関係を把握できないからだ。

一方、ローカル8Bモデル(Qwen 3 8B等)はどうか。関数1つのコード補完なら実用的だ。だが複数ファイルの関係性を理解できない。テスト生成の品質はクラウドAIと比較にならない。14Bモデルなら多少マシだが、Claude Codeが10秒でやることに数分かかり、結果も微妙だ。

これは「ローカルLLMがダメ」という話ではない。用途が違う。クラウドAIは「メインの開発ツール」、ローカルLLMは「オフライン保険・プライバシー・学習用」だ。

タスク クラウドAI(Claude Code等) ローカル8B ローカル14B
複数ファイルのリファクタリング 自律的に完遂 不可能 不可能
関数単位のコード生成 高品質 実用可 良好
テスト生成 網羅的・高品質 低品質 基本的なもの
Git操作・CI連携 自動実行 不可能 不可能
コードレビュー 詳細な指摘 表面的 実用可
バグ修正(複雑) 根本原因を特定 的外れ 時々正解
オフライン動作 不可 完全動作 完全動作
プライバシー API送信あり 完全ローカル 完全ローカル
月額コスト 3,400〜42,400円 無料 無料

結論:MacBook Air M5を買う理由は「ローカルLLMが速い」ではなく、「クラウドAIツールが完璧に動くポータブル開発マシン」だ。ローカルLLMはおまけ。これを前提に読み進めてほしい。

MacBook Air M5が「最強のポータブルAI開発マシン」である5つの理由

1. macOS + ターミナル — AI CLIツールの最高の舞台

Claude Code、Codex CLI、Gemini CLI、Docker、Git — AI開発に必要なCLIツールがすべてネイティブで、最高の状態で動く。Homebrewでインストール、ターミナルで実行。WindowsのWSL2のような仮想化レイヤーを挟まない。

「iPadのSSHアプリでもClaude Codeは使えるのでは?」と思うかもしれない。使えない。Claude Codeはローカルファイルシステムにアクセスし、docker compose upでコンテナを立ち上げ、git hooksを実行し、テストランナーを走らせる。これらはすべてローカルのターミナル環境が必要だ。SSHターミナルアプリやChromebookのLinux環境では、パフォーマンスと安定性でmacOSネイティブに遠く及ばない

2. 1.23kg + ファンレス — どこでも無音AIペアプロ

カフェ、新幹線、図書館。ファンの音を気にする必要がゼロのマシンでClaude Codeと対話しながらコードを書ける。MacBook Pro 14インチ(1.55kg)と比較して320g軽い。毎日持ち歩く開発者にとって、この差はバッグの中で確実に体感できる。ファンレスだから会議中にClaude Codeを動かしても誰にも気づかれない。

3. 18時間バッテリー — クラウドAIはバッテリーに優しい

クラウドAIツールの消費電力は驚くほど小さい。API通信するだけだからCPUもGPUもほぼアイドル状態だ。実際のところ、Claude Codeでの開発中の電力消費はWebブラウジングと大差ない。一方、ローカルLLMを回せばGPUがフル稼働してバッテリーは3〜4時間で尽きる。Apple公称の18時間(Webブラウジング基準)に対し、クラウドAI中心なら10〜14時間の実稼働が現実的だ。電源のないカフェでも半日は余裕で仕事ができる。

4. ユニファイドメモリ — 16GBでもWindowsの16GBとは違う

Apple Siliconのユニファイドメモリは、CPU・GPU・Neural Engineが同じメモリを共有する。Windows PCのように「システムRAM 16GB + GPU VRAM 0GB」という構成ではなく、16GB全体をCPUもGPUも使える。ローカルLLM実行時にはGPU用のVRAMを別途確保する必要がないため、同じ16GBでもWindows PCより大きなモデルが動く。さらにM5ではSSD速度が2倍に向上し、スワップ発生時の速度低下も最小限に抑えられている。

5. Wi-Fi 7(N1チップ) — クラウドAI開発で最も重要なのはネット速度

クラウドAI中心の開発で最もストレスになるのはAPIレスポンスの遅延だ。M5はApple独自設計のN1チップによるWi-Fi 7に対応。Wi-Fi 7の理論上の最大スループットは最大46Gbps(Wi-Fi 6Eの約5倍)で、マルチリンク動作(MLO)によりレイテンシが大幅に低減する。Claude Codeがストリーミングで長いコードを出力する場面で、この差は確実に体感できる。M4のWi-Fi 6Eからの最も実用的なアップグレードだ。

全スペック・価格一覧

13インチモデル

構成 GPU メモリ ストレージ 価格(税込)
モデル1 8コア 16GB 512GB 184,800円
月々7,700円/24回〜
モデル2 10コア 16GB 1TB 214,800円
月々8,950円/24回〜
モデル3 10コア 24GB 1TB 244,800円 ★推奨
月々10,200円/24回〜

15インチモデル

構成 GPU メモリ ストレージ 価格(税込)
モデル1 10コア 16GB 512GB 219,800円
月々9,158円/24回〜
モデル2 10コア 16GB 1TB 249,800円
モデル3 10コア 24GB 1TB 279,800円

ハードウェアスペック比較

項目 13インチ 15インチ
ディスプレイ 13.6″ Liquid Retina 15.3″ Liquid Retina
解像度 2,560×1,664 (224ppi) 2,880×1,864 (224ppi)
重量 1.23 kg 1.51 kg
厚さ 11.3 mm 11.5 mm
バッテリー 最大18時間 (53.8Wh) 最大18時間 (66.5Wh)
ポート Thunderbolt 4 ×2 + MagSafe 3 + 3.5mmジャック
外部ディスプレイ 最大2台(6K@60Hz / 4K@144Hz)
Wi-Fi / Bluetooth Wi-Fi 7(N1チップ)/ Bluetooth 6
カメラ 12MP Center Stage
カラー スカイブルー / シルバー / スターライト / ミッドナイト

注目すべきは標準ストレージが512GBに倍増(M4は256GB)したこと。SSD速度も前世代比2倍に向上。価格は13インチで約2万円の値上げだが、ストレージ倍増を考慮すると実質値下げとの評価もある。

CTOオプションと価格

Apple Storeでは購入時にメモリとストレージをカスタマイズできる(どのモデルでも選択可能)。

カテゴリ 選択肢 追加費用
メモリ 16GB(標準)
24GB +30,000円
32GB +60,000円
ストレージ 512GB(標準)
1TB +30,000円
2TB +90,000円
4TB +180,000円

AI開発者向けおすすめ構成(13インチ)

構成 メモリ ストレージ 合計価格 こんな人に
クラウドAI CLI中心 16GB 512GB 184,800円 Claude Codeメインで開発ツール最小限
AI開発コスパ最強 ★ 24GB 1TB 244,800円 開発ツール全部入り + ローカルLLMも可能(既製モデル3)
本格AI開発(CTO) 32GB 1TB 274,800円 14Bモデル常駐 + 開発ツール余裕
全部入り(CTO) 32GB 2TB 334,800円 容量を気にしない。ただしProも検討すべき価格帯

※15インチは各価格+35,000円。学生・教職員向けは167,800円(税込)から。Apple Storeで全構成を確認可能。

クラウドAI開発環境 — 主役のツールたち

MacBook Air M5でのAI開発の90%はクラウドAI CLIツールが担う。サーバー側で推論が行われるため、ローカルのメモリやGPUをほとんど消費しない。16GBメモリでも快適だ。

ツール 提供元 インストール 得意なこと メモリ消費
Claude Code Anthropic npm i -g @anthropic-ai/claude-code 自律コード生成、ファイル操作、Git連携、テスト実行 ~0.5GB
Codex CLI OpenAI npm i -g @openai/codex マルチモデル対応、サンドボックス実行 ~0.3GB
Gemini CLI Google npm i -g @google/gemini-cli Googleエコシステム統合、長文コンテキスト ~0.3GB
GitHub Copilot CLI GitHub/Microsoft gh copilot(GitHub CLI内蔵) ghコマンド統合、PR/Issue操作 ~0.2GB
Aider OSS(41K+ Stars) pip install aider-chat Git統合、ローカルLLM対応、ペアプログラミング ~0.3GB

これらのAI CLIツールが使えることは、iPadやChromebookでは絶対に実現できないmacOS最大のアドバンテージだ。ターミナルが使えるmacOSだからこそ、最先端のAIペアプログラミング環境がすぐに構築できる。Claude CodeとCodex CLIの詳しい比較は「Claude Code vs Codex 徹底比較」、Gemini CLIの使い方は「Gemini CLI 完全ガイド」で解説している。

ハイブリッドワークフロー

オンライン:Claude Codeで大規模リファクタリング、テスト生成、Git操作を自律実行
オフライン(飛行機・僻地):Ollama + Qwen 3 8Bでコードレビュー、簡単な関数生成
切り替え:Wi-Fiの有無に応じて自然に使い分け。1台で完結する

メモリの本当の選び方 — ローカルLLMじゃなく開発ツールで決める

「ローカルLLMを動かすには何GB必要?」という問いから始めると判断を間違える。まず開発ツールでどれだけメモリを使うかを知ることが先だ。


MacBook Air M5 メモリ消費の内訳AI開発時の実際のメモリ消費を16GB・24GB・32GBモデル別に可視化した図AI開発時の実際のメモリ消費内訳macOS + デーモンVS Code + 拡張DockerChromeClaude CodeローカルLLM空き / スワップ16GBmacOS ~5GBVS Code ~2.5GBDocker ~3.5GBChrome ~3GB合計 ~14.5GB → スワップ発生。動くが快適ではない24GBmacOS ~5GBVS CodeDockerChromeLLM 8B ~5GB余裕合計 ~19.5GB → 開発ツール+ローカルLLM(8B)まで余裕。ベスト32GBmacOSVSCDockerChromeLLM 14B ~9GB余裕あり合計 ~23.5GB → 14Bモデル余裕。だがAirで32GBならPro検討も※ Docker: コンテナ2-3個想定 / Chrome: タブ15個想定 / LLM: Q4_K_M量子化※ 実際の消費量はワークロードにより変動。スワップはSSD速度2倍により影響軽減

※上図の数値はActivity Monitorでの一般的な実測目安。macOS: カーネル+WindowServer+Spotlight等のデーモン合計。Docker: OrbStackでWebアプリ用コンテナ2-3個起動時。Chrome: 拡張機能5-6個+タブ15個。実際の消費量はワークロードと起動中のアプリにより変動する。

16GB — 動くが快適ではない

macOS + VS Code + Docker + Chrome + Claude Codeで約14-17GB消費する。16GBだとスワップが頻繁に発生する。クラウドAI中心で、Dockerを軽めに使い、ローカルLLMを常駐させないなら許容範囲。

24GB — AI開発者のベストバランス ★

開発ツールを全て起動しても約5GBの余裕がある。この余りでOllama + Qwen 3 8B(~5GB)を動かせる。つまりクラウドAI開発をメインにしながら、オフライン保険としてローカルLLMも使える。3万円の追加投資で得られる余裕としてはコスパ最高だ。

32GB — Proを検討すべき価格帯

開発ツール + 14Bモデルが余裕で動く。だがAirのCTOで32GBにすると274,800円。MacBook Pro M5(32GB標準)が248,800円〜から買えることを考えると、32GBが本当に必要な人はファン搭載・高メモリ帯域のProの方が幸せになれる可能性が高い。

M5 vs M4 — AI開発で何が変わったか

項目 MacBook Air M5(2026) MacBook Air M4(2025) 変化
GPU Neural Accelerator 各コアに搭載 なし ★新機能
メモリ帯域幅 153GB/s 120GB/s +28%
AI推論TTFT 基準 最大4倍高速
トークン生成速度 基準 +19〜27%
Geekbench 6 SC 4,263 3,810 +12%
Geekbench 6 MC 17,862 15,400 +16%
標準ストレージ 512GB 256GB 2倍
SSD速度 基準 2倍高速
Wi-Fi Wi-Fi 7(N1チップ) Wi-Fi 6E 世代更新
13″ 開始価格 184,800円 164,800円 +20,000円

買い替え判断

  • M1/M2 → M5強く推奨。AI性能6〜9.5倍向上、ストレージ・メモリ帯域・Wi-Fiすべて世代が違う
  • M3 → M5推奨。GPU Neural Accelerator追加でローカルLLM体験が激変、CPU 25〜30%向上
  • M4 → M5非推奨。ストレージ倍増とWi-Fi 7以外の差は小さい。来年のM6を待つべき

ローカルLLMの現実的な使い方

正直に書く。ローカルLLMの出力品質は、クラウドAI(Claude Opus 4.6、GPT-4.5等)と比べて大幅に劣る。それでも価値がある場面は明確に存在する。

ローカルLLMが真に価値を発揮する4つの場面

  1. オフライン環境:飛行機、新幹線トンネル内、Wi-Fiのない僻地。クラウドAIが使えないときの保険
  2. 機密コードのレビュー:NDA下のコードをAPI送信したくない場合。完全ローカルで処理
  3. AI/MLの学習・実験:モデルの挙動を理解する、プロンプトエンジニアリングの練習
  4. APIコスト削減:簡単なタスクの大量繰り返し(フォーマット変換、定型コメント生成等)

メモリ別モデルガイド

16GBメモリ — 8Bクラス

モデル パラメータ 量子化 サイズ 用途
Qwen 3 8B ★推奨 8B Q4_K_M ~5GB /thinkモードでCoT推論可能
Llama 3.1 8B 8B Q4_K_M ~5GB Meta製、英語圏で定番
Qwen 2.5 Coder 7B 7B Q4_K_M ~4.5GB コーディング特化
DeepSeek-R1-Distill-8B 8B Q4 ~5GB 推論・数学特化
Gemma 2 9B 9B Q4 ~5.5GB Google製、バランス型

24GBメモリ — 14Bクラスで品質が飛躍

モデル パラメータ 量子化 サイズ 用途
Qwen 3 14B ★推奨 14B Q4_K_M ~9GB 8Bから大幅品質向上、日本語も良好
DeepSeek-R1-Distill-14B 14B Q4 ~9GB 推論特化、数学・ロジックに強い
Qwen 30B MoE 30B (3B active) Q4 ~12GB MoEで効率的、見かけ以上の品質

32GBメモリ(CTO) — 30Bクラス

32GBならQwen 2.5 Coder 32Bのようなコーディング特化大規模モデルが実行可能。ただし前述の通り、32GBが必要ならMacBook Proの検討を推奨する。

Ollama vs MLX — 簡潔な比較

項目 Ollama MLX
推論速度 ★★☆(llama.cppベース) ★★★ 最速
セットアップ 超簡単(1コマンド) Python環境必要
API互換性 OpenAI互換API Python API
Neural Accelerator Metal経由(間接) 完全活用
おすすめ 開発・プロトタイプ 最高性能が必要な時

推奨戦略:普段はollama pull qwen3:8bの手軽さで十分。パフォーマンスを追求する場面でMLXに切り替える。OllamaとClaude Codeを連携させる方法は「Claude Codeを完全無料で使う方法|Ollama連携ガイド」で詳しく解説している。

MLXとGPU Neural Accelerator — 技術的に何が起きてるか

M5チップ最大の革新は、各GPUコアにNeural Acceleratorを統合したことだ。従来のApple SiliconではAI処理はNeural Engine(NPU)が担当していた。M5ではこれに加え、GPU自体が行列演算を高速処理するハードウェアを内蔵している。


M5 GPU Neural Accelerator アーキテクチャM5チップの3つのAI処理エンジン:CPU、GPU+Neural Accelerator、Neural Engineの連携図M5チップ AI処理アーキテクチャCPU(10コア)4 スーパーコア + 6 エフィシエンシーコア「世界最速のCPUコア」汎用計算・アプリ実行SC: 4,263 / MC: 17,862GPU(最大10コア)+ Neural Accelerator(各コア内蔵)行列演算・TensorOps命令Metal 4 / Metal Performance PrimitivesAI推論 最大4倍高速(vs M4)Neural Engine(16コア)16コア専用プロセッサApple Intelligence処理Core ML推論の自動最適化M1比 9.5倍のAI性能ユニファイドメモリ(16/24/32GB)— 帯域幅 153GB/sCPU・GPU・Neural Engineがメモリを共有 → データコピー不要 → 推論効率最大化MLX → GPU Neural Accelerator活用Ollama → llama.cpp(Metal)経由Core ML → Neural Engine自動最適化

Apple Machine Learning Researchの公式ベンチマークによると、GPU Neural AcceleratorはLLM推論のTime-to-First-Token(TTFT)を最大4倍改善する。Qwen 14B(4-bit量子化)のTTFTがM5では10秒未満に短縮された。

改善の仕組みは明確だ。TTFTは計算バウンド(プロンプト全体を処理する段階)であり、Neural Acceleratorの行列演算が直接効く。一方、トークン生成速度はメモリ帯域幅バウンドであり、M4の120GB/sからM5の153GB/sへの28%向上により、19〜27%の速度改善にとどまる。


メモリ帯域幅比較チャートM5、M4、一般的なWindowsノートPC、M5 Pro、M5 Maxのメモリ帯域幅を棒グラフで比較メモリ帯域幅とLLMトークン生成速度の関係90GB/sWindows PCDDR5-5600120GB/sM4153GB/sM5 ★307GB/sM5 Pro614GB/sM5 Max帯域幅

arXivの学術論文によると、MLXはllama.cppに対して21〜87%高いスループットを記録。MoEモデルでは約2倍に達するケースもある。Hugging Face上のmlx-communityリポジトリには数千のMLX最適化済みモデルが公開されている。

正直に言うと:この技術はすごい。だがクラウドAI中心の開発者にとっては「ローカルLLMを使う時にちょっと速い」という間接的なメリットだ。Neural AcceleratorのためだけにM4からM5に買い替える必要はない。

画像生成AI・Whisper音声認識

画像生成AI — FLUX 3.8倍高速

Appleの公式ベンチマークによると、FLUX-dev-4bit(12Bパラメータ)での1024×1024画像生成は、M5でM4比3.8倍以上高速化した。GPU Neural Acceleratorの行列演算アクセラレーションがDiffusionモデルにも直接効いている。

ローカルで画像生成を行うならDraw Things(App Store無料)が推奨だ。Metal最適化によりApple Silicon上で高速に動作し、Stable Diffusion XL・FLUXモデルに対応している。プロンプトを入力して1〜2分(M5の場合)で1024×1024の画像が生成される。クラウドAPIを使わないため、生成した画像のプライバシーも完全に保たれる。ブログのアイキャッチ画像やプロトタイプのモックアップ生成に実用的だ。

Whisper音声認識 — 完全ローカル文字起こし

mlx-whisperpip install mlx-whisper)はApple Silicon向けに最適化されたWhisper実装で、通常のWhisperより約2倍高速に動作する。さらにLightning Whisper MLXを使えば、Whisper CPPの10倍高速、通常mlx-whisperの4倍高速で音声認識が可能だ。

実用的なシナリオは明確だ。1時間の会議録音をローカルで文字起こしし、その結果をClaude Codeに渡して議事録を自動生成する。音声データをクラウドに送信する必要がないため、社内会議の内容が外部に漏れるリスクがゼロになる。M5のメモリ帯域幅向上により、これらのMLXベース実装はM4比で19〜27%の追加速度向上が見込まれる。

ファンレスの本当の価値と限界

価値 — 「無音」は想像以上に大きい

Claude Codeと対話しながらコードを書いている間、ファンの音はゼロだ。クラウドAIはAPI通信のみでCPUもGPUもほぼアイドル。当然ファンは回らない。MacBook Proは高負荷時にファンが唸るが、Airにはその心配が一切ない。スペックシートには載らないが、これが日常の開発体験を根本的に変える。

具体的に「無音」が効く場面を挙げる。カフェで隣の人の視線を気にせずAI開発。クライアントとのビデオ会議中に、裏でClaude Codeにバグ修正を走らせる。深夜に家族が寝ている横で静かにコーディング。ファンがないという事実が、AIツールを使える場所と時間を劇的に広げる

限界 — ローカル推論の持続力には制約がある

ファンレス設計の影響

  • 問題なし:クラウドAI CLI全般、チャット推論(数分)、コード補完、Whisper(1ファイルずつ)
  • 注意が必要:連続30分以上のローカルLLM推論、画像生成の連続実行
  • 非推奨:ファインチューニング(LoRA等)、大規模トレーニング → MacBook ProまたはクラウドGPU推奨

Geekbench 6のスコアはAir SC 4,263(短時間ベンチ)。短時間テストではProとほぼ同等だが、連続負荷ではファンレスのため徐々にスロットリングが入る。OllamaでQwen 14Bを30分以上連続推論させるとトークン生成速度が10〜15%低下する場合がある。ファインチューニングや大規模バッチ推論が必要ならProを選ぶべきだ。

ただし、これはローカルLLMの話だ。クラウドAI中心の開発ではファンが回る場面自体がほとんどない。日常のAI開発の90%以上はファンレスで全く問題ない。ここが記事冒頭で述べた「クラウドAIが主役」のもう一つの理由でもある。

MacBook Neo vs Air M5 vs Pro — 予算別ガイド

項目 MacBook Neo MacBook Air M5 ★ MacBook Pro M5
価格 99,800円〜 184,800円〜 248,800円〜
チップ A18 Pro M5 M5 / M5 Pro
メモリ 8GB(固定) 16/24/32GB 24/48GB(Pro)
メモリ帯域幅 60GB/s 153GB/s 307GB/s(Pro)
ファン なし なし あり
重量 1.04 kg 1.23 kg 1.55 kg
ローカルLLM 非現実的 8B〜14B 14B〜70B
クラウドAI CLI 快適 快適 快適
ファインチューニング 不可 限定的 実用的
こんな人に クラウドAI専用
予算最小
90%の開発者に
ベスト
ローカルLLM本格運用
持続的推論

詳細なMacBook Neoのレビューは「10万円以下でAI開発環境が完成|MacBook NeoでClaude Code・Codex CLI・Gemini CLIを使い倒す」を参照。

選び方はシンプル

  • 予算10万円 → Neo:クラウドAI CLIだけで十分な人。ローカルLLMは諦める
  • 予算20〜25万円 → Air M5:クラウドAI + ローカルLLMオプション。90%の開発者にベスト
  • 予算25万円以上 + 32GB必要 → Pro:ファインチューニング、持続的推論、14B以上を常用する人

結論 — 誰がMacBook Air M5を買うべきか

答え:13″ / 24GB / 1TB = 244,800円

90%のAI開発者にとって、これが正解だ。

理由はシンプル。クラウドAIツール(Claude Code、Codex CLI、Gemini CLI)が完璧に動く。開発ツール(VS Code、Docker、Chrome)を全て起動してもメモリに余裕がある。オフライン保険としてOllama + Qwen 3 8Bも動く。そしてこれが1.23kg・ファンレス・18時間バッテリーの筐体に収まっている。

M1/M2ユーザーへ:AI性能が最大9.5倍向上。開発ツールの動作速度も体感で別物。買い替えの価値は非常に高い。

M3ユーザーへ:GPU Neural Accelerator追加とWi-Fi 7が主な差分。ローカルLLMを使うならアップグレードの価値あり。

M4ユーザーへ:ストレージ倍増とWi-Fi 7以外の差は小さい。急ぐ必要はない。来年のM6を待つべき。

32GBが欲しいなら:正直に言う。AirのCTOで32GB(274,800円)を選ぶより、MacBook Pro(248,800円〜、32GB標準)の方がファン搭載・高メモリ帯域で幸せになれる可能性が高い。

※本記事の情報は2026年3月5日時点のものです。ベンチマーク値はテスト環境により変動する場合があります。価格は税込、Apple Store価格です。

参考文献・データソース

AI開発・導入のご相談

「何から始めればいいか分からない」「費用感を知りたい」など、AI導入に関するご相談を無料で承っております。大手SIerのような高額な費用は不要。経験豊富なエンジニアが直接対応します。

AIスクール受講生募集中

未経験からAIエンジニアへ。現役エンジニアによるマンツーマン指導で、実践的なAIスキルを最短で習得できます。就職・転職サポートも充実。まずは無料カウンセリングへ。

この記事をシェア