MacBook Air M5 AI開発レビュー|Claude Code・ローカルLLM・MLXを1.23kgで使い倒す
2026年、AI開発の意味が変わった。AIツールを使ってソフトウェアを作ることがAI開発だ。Claude Code (Opus 4.6) が20ファイルを横断してリファクタリングし、テストを書き、Gitにコミットする。Codex CLIがサンドボックスでコードを検証し、Gemini CLIがGoogleエコシステムと統合する。
これらのクラウドAI CLIツールが最高の状態で動く最軽量マシンが、MacBook Air M5だ。1.23kg、ファンレス、18時間バッテリー。ローカルLLMも動く — だがそれはボーナスであって主役ではない。ここを間違えると、「Neural Accelerator 4倍速!」に踊らされて買い物を失敗する。本記事では、AI時代の開発マシンとしてのMacBook Air M5を、現実に即して徹底レビューする。
目次
- AI開発の現実 — クラウドAIとローカルLLMの本当の実力差
- MacBook Air M5が「最強のポータブルAI開発マシン」である5つの理由
- 全スペック・価格一覧
- CTOオプションと価格
- クラウドAI開発環境 — 主役のツールたち
- メモリの本当の選び方 — ローカルLLMじゃなく開発ツールで決める
- M5 vs M4 — AI開発で何が変わったか
- ローカルLLMの現実的な使い方
- MLXとGPU Neural Accelerator — 技術的に何が起きてるか
- 画像生成AI・Whisper音声認識
- ファンレスの本当の価値と限界
- MacBook Neo vs Air M5 vs Pro — 予算別ガイド
- 結論 — 誰がMacBook Air M5を買うべきか
AI開発の現実 — クラウドAIとローカルLLMの本当の実力差
まず、2026年のAI開発で何が起きているかを正直に書く。
Claude Code (Opus 4.6) は、プロジェクト全体を理解した上で、20ファイルを横断するリファクタリングを実行し、テストを書き、Gitにコミットし、CIの失敗を修正する。人間が1日かかる作業を数分で終わらせる。これがクラウドAIの実力だ。
具体例を挙げる。Next.jsプロジェクトでPages RouterからApp Routerへ移行するとき、Claude Codeは40以上のファイルを自律的に書き換え、ルーティング構造を再設計し、useClientディレクティブを適切に配置し、テストを修正してパスさせた。1つのプロンプトで、だ。Claude Codeの詳しい使い方は「Claude Code 初心者完全ガイド」で解説している。同じタスクをローカル8Bモデルに投げると、1ファイル目の途中で破綻する。コンテキストウィンドウが足りず、プロジェクト全体の依存関係を把握できないからだ。
一方、ローカル8Bモデル(Qwen 3 8B等)はどうか。関数1つのコード補完なら実用的だ。だが複数ファイルの関係性を理解できない。テスト生成の品質はクラウドAIと比較にならない。14Bモデルなら多少マシだが、Claude Codeが10秒でやることに数分かかり、結果も微妙だ。
これは「ローカルLLMがダメ」という話ではない。用途が違う。クラウドAIは「メインの開発ツール」、ローカルLLMは「オフライン保険・プライバシー・学習用」だ。
| タスク | クラウドAI(Claude Code等) | ローカル8B | ローカル14B |
|---|---|---|---|
| 複数ファイルのリファクタリング | 自律的に完遂 | 不可能 | 不可能 |
| 関数単位のコード生成 | 高品質 | 実用可 | 良好 |
| テスト生成 | 網羅的・高品質 | 低品質 | 基本的なもの |
| Git操作・CI連携 | 自動実行 | 不可能 | 不可能 |
| コードレビュー | 詳細な指摘 | 表面的 | 実用可 |
| バグ修正(複雑) | 根本原因を特定 | 的外れ | 時々正解 |
| オフライン動作 | 不可 | 完全動作 | 完全動作 |
| プライバシー | API送信あり | 完全ローカル | 完全ローカル |
| 月額コスト | 3,400〜42,400円 | 無料 | 無料 |
結論:MacBook Air M5を買う理由は「ローカルLLMが速い」ではなく、「クラウドAIツールが完璧に動くポータブル開発マシン」だ。ローカルLLMはおまけ。これを前提に読み進めてほしい。
MacBook Air M5が「最強のポータブルAI開発マシン」である5つの理由
1. macOS + ターミナル — AI CLIツールの最高の舞台
Claude Code、Codex CLI、Gemini CLI、Docker、Git — AI開発に必要なCLIツールがすべてネイティブで、最高の状態で動く。Homebrewでインストール、ターミナルで実行。WindowsのWSL2のような仮想化レイヤーを挟まない。
「iPadのSSHアプリでもClaude Codeは使えるのでは?」と思うかもしれない。使えない。Claude Codeはローカルファイルシステムにアクセスし、docker compose upでコンテナを立ち上げ、git hooksを実行し、テストランナーを走らせる。これらはすべてローカルのターミナル環境が必要だ。SSHターミナルアプリやChromebookのLinux環境では、パフォーマンスと安定性でmacOSネイティブに遠く及ばない。
2. 1.23kg + ファンレス — どこでも無音AIペアプロ
カフェ、新幹線、図書館。ファンの音を気にする必要がゼロのマシンでClaude Codeと対話しながらコードを書ける。MacBook Pro 14インチ(1.55kg)と比較して320g軽い。毎日持ち歩く開発者にとって、この差はバッグの中で確実に体感できる。ファンレスだから会議中にClaude Codeを動かしても誰にも気づかれない。
3. 18時間バッテリー — クラウドAIはバッテリーに優しい
クラウドAIツールの消費電力は驚くほど小さい。API通信するだけだからCPUもGPUもほぼアイドル状態だ。実際のところ、Claude Codeでの開発中の電力消費はWebブラウジングと大差ない。一方、ローカルLLMを回せばGPUがフル稼働してバッテリーは3〜4時間で尽きる。Apple公称の18時間(Webブラウジング基準)に対し、クラウドAI中心なら10〜14時間の実稼働が現実的だ。電源のないカフェでも半日は余裕で仕事ができる。
4. ユニファイドメモリ — 16GBでもWindowsの16GBとは違う
Apple Siliconのユニファイドメモリは、CPU・GPU・Neural Engineが同じメモリを共有する。Windows PCのように「システムRAM 16GB + GPU VRAM 0GB」という構成ではなく、16GB全体をCPUもGPUも使える。ローカルLLM実行時にはGPU用のVRAMを別途確保する必要がないため、同じ16GBでもWindows PCより大きなモデルが動く。さらにM5ではSSD速度が2倍に向上し、スワップ発生時の速度低下も最小限に抑えられている。
5. Wi-Fi 7(N1チップ) — クラウドAI開発で最も重要なのはネット速度
クラウドAI中心の開発で最もストレスになるのはAPIレスポンスの遅延だ。M5はApple独自設計のN1チップによるWi-Fi 7に対応。Wi-Fi 7の理論上の最大スループットは最大46Gbps(Wi-Fi 6Eの約5倍)で、マルチリンク動作(MLO)によりレイテンシが大幅に低減する。Claude Codeがストリーミングで長いコードを出力する場面で、この差は確実に体感できる。M4のWi-Fi 6Eからの最も実用的なアップグレードだ。
全スペック・価格一覧
13インチモデル
| 構成 | GPU | メモリ | ストレージ | 価格(税込) |
|---|---|---|---|---|
| モデル1 | 8コア | 16GB | 512GB | 184,800円 月々7,700円/24回〜 |
| モデル2 | 10コア | 16GB | 1TB | 214,800円 月々8,950円/24回〜 |
| モデル3 | 10コア | 24GB | 1TB | 244,800円 ★推奨 月々10,200円/24回〜 |
15インチモデル
| 構成 | GPU | メモリ | ストレージ | 価格(税込) |
|---|---|---|---|---|
| モデル1 | 10コア | 16GB | 512GB | 219,800円 月々9,158円/24回〜 |
| モデル2 | 10コア | 16GB | 1TB | 249,800円 |
| モデル3 | 10コア | 24GB | 1TB | 279,800円 |
ハードウェアスペック比較
| 項目 | 13インチ | 15インチ |
|---|---|---|
| ディスプレイ | 13.6″ Liquid Retina | 15.3″ Liquid Retina |
| 解像度 | 2,560×1,664 (224ppi) | 2,880×1,864 (224ppi) |
| 重量 | 1.23 kg | 1.51 kg |
| 厚さ | 11.3 mm | 11.5 mm |
| バッテリー | 最大18時間 (53.8Wh) | 最大18時間 (66.5Wh) |
| ポート | Thunderbolt 4 ×2 + MagSafe 3 + 3.5mmジャック | |
| 外部ディスプレイ | 最大2台(6K@60Hz / 4K@144Hz) | |
| Wi-Fi / Bluetooth | Wi-Fi 7(N1チップ)/ Bluetooth 6 | |
| カメラ | 12MP Center Stage | |
| カラー | スカイブルー / シルバー / スターライト / ミッドナイト | |
注目すべきは標準ストレージが512GBに倍増(M4は256GB)したこと。SSD速度も前世代比2倍に向上。価格は13インチで約2万円の値上げだが、ストレージ倍増を考慮すると実質値下げとの評価もある。
CTOオプションと価格
Apple Storeでは購入時にメモリとストレージをカスタマイズできる(どのモデルでも選択可能)。
| カテゴリ | 選択肢 | 追加費用 |
|---|---|---|
| メモリ | 16GB(標準) | — |
| 24GB | +30,000円 | |
| 32GB | +60,000円 | |
| ストレージ | 512GB(標準) | — |
| 1TB | +30,000円 | |
| 2TB | +90,000円 | |
| 4TB | +180,000円 |
AI開発者向けおすすめ構成(13インチ)
| 構成 | メモリ | ストレージ | 合計価格 | こんな人に |
|---|---|---|---|---|
| クラウドAI CLI中心 | 16GB | 512GB | 184,800円 | Claude Codeメインで開発ツール最小限 |
| AI開発コスパ最強 ★ | 24GB | 1TB | 244,800円 | 開発ツール全部入り + ローカルLLMも可能(既製モデル3) |
| 本格AI開発(CTO) | 32GB | 1TB | 274,800円 | 14Bモデル常駐 + 開発ツール余裕 |
| 全部入り(CTO) | 32GB | 2TB | 334,800円 | 容量を気にしない。ただしProも検討すべき価格帯 |
※15インチは各価格+35,000円。学生・教職員向けは167,800円(税込)から。Apple Storeで全構成を確認可能。
クラウドAI開発環境 — 主役のツールたち
MacBook Air M5でのAI開発の90%はクラウドAI CLIツールが担う。サーバー側で推論が行われるため、ローカルのメモリやGPUをほとんど消費しない。16GBメモリでも快適だ。
| ツール | 提供元 | インストール | 得意なこと | メモリ消費 |
|---|---|---|---|---|
| Claude Code | Anthropic | npm i -g @anthropic-ai/claude-code | 自律コード生成、ファイル操作、Git連携、テスト実行 | ~0.5GB |
| Codex CLI | OpenAI | npm i -g @openai/codex | マルチモデル対応、サンドボックス実行 | ~0.3GB |
| Gemini CLI | npm i -g @google/gemini-cli | Googleエコシステム統合、長文コンテキスト | ~0.3GB | |
| GitHub Copilot CLI | GitHub/Microsoft | gh copilot(GitHub CLI内蔵) | ghコマンド統合、PR/Issue操作 | ~0.2GB |
| Aider | OSS(41K+ Stars) | pip install aider-chat | Git統合、ローカルLLM対応、ペアプログラミング | ~0.3GB |
これらのAI CLIツールが使えることは、iPadやChromebookでは絶対に実現できないmacOS最大のアドバンテージだ。ターミナルが使えるmacOSだからこそ、最先端のAIペアプログラミング環境がすぐに構築できる。Claude CodeとCodex CLIの詳しい比較は「Claude Code vs Codex 徹底比較」、Gemini CLIの使い方は「Gemini CLI 完全ガイド」で解説している。
ハイブリッドワークフロー
オンライン:Claude Codeで大規模リファクタリング、テスト生成、Git操作を自律実行
オフライン(飛行機・僻地):Ollama + Qwen 3 8Bでコードレビュー、簡単な関数生成
切り替え:Wi-Fiの有無に応じて自然に使い分け。1台で完結する
メモリの本当の選び方 — ローカルLLMじゃなく開発ツールで決める
「ローカルLLMを動かすには何GB必要?」という問いから始めると判断を間違える。まず開発ツールでどれだけメモリを使うかを知ることが先だ。
※上図の数値はActivity Monitorでの一般的な実測目安。macOS: カーネル+WindowServer+Spotlight等のデーモン合計。Docker: OrbStackでWebアプリ用コンテナ2-3個起動時。Chrome: 拡張機能5-6個+タブ15個。実際の消費量はワークロードと起動中のアプリにより変動する。
16GB — 動くが快適ではない
macOS + VS Code + Docker + Chrome + Claude Codeで約14-17GB消費する。16GBだとスワップが頻繁に発生する。クラウドAI中心で、Dockerを軽めに使い、ローカルLLMを常駐させないなら許容範囲。
24GB — AI開発者のベストバランス ★
開発ツールを全て起動しても約5GBの余裕がある。この余りでOllama + Qwen 3 8B(~5GB)を動かせる。つまりクラウドAI開発をメインにしながら、オフライン保険としてローカルLLMも使える。3万円の追加投資で得られる余裕としてはコスパ最高だ。
32GB — Proを検討すべき価格帯
開発ツール + 14Bモデルが余裕で動く。だがAirのCTOで32GBにすると274,800円。MacBook Pro M5(32GB標準)が248,800円〜から買えることを考えると、32GBが本当に必要な人はファン搭載・高メモリ帯域のProの方が幸せになれる可能性が高い。
M5 vs M4 — AI開発で何が変わったか
| 項目 | MacBook Air M5(2026) | MacBook Air M4(2025) | 変化 |
|---|---|---|---|
| GPU Neural Accelerator | 各コアに搭載 | なし | ★新機能 |
| メモリ帯域幅 | 153GB/s | 120GB/s | +28% |
| AI推論TTFT | 基準 | — | 最大4倍高速 |
| トークン生成速度 | 基準 | — | +19〜27% |
| Geekbench 6 SC | 4,263 | 3,810 | +12% |
| Geekbench 6 MC | 17,862 | 15,400 | +16% |
| 標準ストレージ | 512GB | 256GB | 2倍 |
| SSD速度 | 基準 | — | 2倍高速 |
| Wi-Fi | Wi-Fi 7(N1チップ) | Wi-Fi 6E | 世代更新 |
| 13″ 開始価格 | 184,800円 | 164,800円 | +20,000円 |
買い替え判断:
- M1/M2 → M5:強く推奨。AI性能6〜9.5倍向上、ストレージ・メモリ帯域・Wi-Fiすべて世代が違う
- M3 → M5:推奨。GPU Neural Accelerator追加でローカルLLM体験が激変、CPU 25〜30%向上
- M4 → M5:非推奨。ストレージ倍増とWi-Fi 7以外の差は小さい。来年のM6を待つべき
ローカルLLMの現実的な使い方
正直に書く。ローカルLLMの出力品質は、クラウドAI(Claude Opus 4.6、GPT-4.5等)と比べて大幅に劣る。それでも価値がある場面は明確に存在する。
ローカルLLMが真に価値を発揮する4つの場面
- オフライン環境:飛行機、新幹線トンネル内、Wi-Fiのない僻地。クラウドAIが使えないときの保険
- 機密コードのレビュー:NDA下のコードをAPI送信したくない場合。完全ローカルで処理
- AI/MLの学習・実験:モデルの挙動を理解する、プロンプトエンジニアリングの練習
- APIコスト削減:簡単なタスクの大量繰り返し(フォーマット変換、定型コメント生成等)
メモリ別モデルガイド
16GBメモリ — 8Bクラス
| モデル | パラメータ | 量子化 | サイズ | 用途 |
|---|---|---|---|---|
| Qwen 3 8B ★推奨 | 8B | Q4_K_M | ~5GB | /thinkモードでCoT推論可能 |
| Llama 3.1 8B | 8B | Q4_K_M | ~5GB | Meta製、英語圏で定番 |
| Qwen 2.5 Coder 7B | 7B | Q4_K_M | ~4.5GB | コーディング特化 |
| DeepSeek-R1-Distill-8B | 8B | Q4 | ~5GB | 推論・数学特化 |
| Gemma 2 9B | 9B | Q4 | ~5.5GB | Google製、バランス型 |
24GBメモリ — 14Bクラスで品質が飛躍
| モデル | パラメータ | 量子化 | サイズ | 用途 |
|---|---|---|---|---|
| Qwen 3 14B ★推奨 | 14B | Q4_K_M | ~9GB | 8Bから大幅品質向上、日本語も良好 |
| DeepSeek-R1-Distill-14B | 14B | Q4 | ~9GB | 推論特化、数学・ロジックに強い |
| Qwen 30B MoE | 30B (3B active) | Q4 | ~12GB | MoEで効率的、見かけ以上の品質 |
32GBメモリ(CTO) — 30Bクラス
32GBならQwen 2.5 Coder 32Bのようなコーディング特化大規模モデルが実行可能。ただし前述の通り、32GBが必要ならMacBook Proの検討を推奨する。
Ollama vs MLX — 簡潔な比較
| 項目 | Ollama | MLX |
|---|---|---|
| 推論速度 | ★★☆(llama.cppベース) | ★★★ 最速 |
| セットアップ | 超簡単(1コマンド) | Python環境必要 |
| API互換性 | OpenAI互換API | Python API |
| Neural Accelerator | Metal経由(間接) | 完全活用 |
| おすすめ | 開発・プロトタイプ | 最高性能が必要な時 |
推奨戦略:普段はollama pull qwen3:8bの手軽さで十分。パフォーマンスを追求する場面でMLXに切り替える。OllamaとClaude Codeを連携させる方法は「Claude Codeを完全無料で使う方法|Ollama連携ガイド」で詳しく解説している。
MLXとGPU Neural Accelerator — 技術的に何が起きてるか
M5チップ最大の革新は、各GPUコアにNeural Acceleratorを統合したことだ。従来のApple SiliconではAI処理はNeural Engine(NPU)が担当していた。M5ではこれに加え、GPU自体が行列演算を高速処理するハードウェアを内蔵している。
Apple Machine Learning Researchの公式ベンチマークによると、GPU Neural AcceleratorはLLM推論のTime-to-First-Token(TTFT)を最大4倍改善する。Qwen 14B(4-bit量子化)のTTFTがM5では10秒未満に短縮された。
改善の仕組みは明確だ。TTFTは計算バウンド(プロンプト全体を処理する段階)であり、Neural Acceleratorの行列演算が直接効く。一方、トークン生成速度はメモリ帯域幅バウンドであり、M4の120GB/sからM5の153GB/sへの28%向上により、19〜27%の速度改善にとどまる。
arXivの学術論文によると、MLXはllama.cppに対して21〜87%高いスループットを記録。MoEモデルでは約2倍に達するケースもある。Hugging Face上のmlx-communityリポジトリには数千のMLX最適化済みモデルが公開されている。
正直に言うと:この技術はすごい。だがクラウドAI中心の開発者にとっては「ローカルLLMを使う時にちょっと速い」という間接的なメリットだ。Neural AcceleratorのためだけにM4からM5に買い替える必要はない。
画像生成AI・Whisper音声認識
画像生成AI — FLUX 3.8倍高速
Appleの公式ベンチマークによると、FLUX-dev-4bit(12Bパラメータ)での1024×1024画像生成は、M5でM4比3.8倍以上高速化した。GPU Neural Acceleratorの行列演算アクセラレーションがDiffusionモデルにも直接効いている。
ローカルで画像生成を行うならDraw Things(App Store無料)が推奨だ。Metal最適化によりApple Silicon上で高速に動作し、Stable Diffusion XL・FLUXモデルに対応している。プロンプトを入力して1〜2分(M5の場合)で1024×1024の画像が生成される。クラウドAPIを使わないため、生成した画像のプライバシーも完全に保たれる。ブログのアイキャッチ画像やプロトタイプのモックアップ生成に実用的だ。
Whisper音声認識 — 完全ローカル文字起こし
mlx-whisper(pip install mlx-whisper)はApple Silicon向けに最適化されたWhisper実装で、通常のWhisperより約2倍高速に動作する。さらにLightning Whisper MLXを使えば、Whisper CPPの10倍高速、通常mlx-whisperの4倍高速で音声認識が可能だ。
実用的なシナリオは明確だ。1時間の会議録音をローカルで文字起こしし、その結果をClaude Codeに渡して議事録を自動生成する。音声データをクラウドに送信する必要がないため、社内会議の内容が外部に漏れるリスクがゼロになる。M5のメモリ帯域幅向上により、これらのMLXベース実装はM4比で19〜27%の追加速度向上が見込まれる。
ファンレスの本当の価値と限界
価値 — 「無音」は想像以上に大きい
Claude Codeと対話しながらコードを書いている間、ファンの音はゼロだ。クラウドAIはAPI通信のみでCPUもGPUもほぼアイドル。当然ファンは回らない。MacBook Proは高負荷時にファンが唸るが、Airにはその心配が一切ない。スペックシートには載らないが、これが日常の開発体験を根本的に変える。
具体的に「無音」が効く場面を挙げる。カフェで隣の人の視線を気にせずAI開発。クライアントとのビデオ会議中に、裏でClaude Codeにバグ修正を走らせる。深夜に家族が寝ている横で静かにコーディング。ファンがないという事実が、AIツールを使える場所と時間を劇的に広げる。
限界 — ローカル推論の持続力には制約がある
ファンレス設計の影響
- 問題なし:クラウドAI CLI全般、チャット推論(数分)、コード補完、Whisper(1ファイルずつ)
- 注意が必要:連続30分以上のローカルLLM推論、画像生成の連続実行
- 非推奨:ファインチューニング(LoRA等)、大規模トレーニング → MacBook ProまたはクラウドGPU推奨
Geekbench 6のスコアはAir SC 4,263(短時間ベンチ)。短時間テストではProとほぼ同等だが、連続負荷ではファンレスのため徐々にスロットリングが入る。OllamaでQwen 14Bを30分以上連続推論させるとトークン生成速度が10〜15%低下する場合がある。ファインチューニングや大規模バッチ推論が必要ならProを選ぶべきだ。
ただし、これはローカルLLMの話だ。クラウドAI中心の開発ではファンが回る場面自体がほとんどない。日常のAI開発の90%以上はファンレスで全く問題ない。ここが記事冒頭で述べた「クラウドAIが主役」のもう一つの理由でもある。
MacBook Neo vs Air M5 vs Pro — 予算別ガイド
| 項目 | MacBook Neo | MacBook Air M5 ★ | MacBook Pro M5 |
|---|---|---|---|
| 価格 | 99,800円〜 | 184,800円〜 | 248,800円〜 |
| チップ | A18 Pro | M5 | M5 / M5 Pro |
| メモリ | 8GB(固定) | 16/24/32GB | 24/48GB(Pro) |
| メモリ帯域幅 | 60GB/s | 153GB/s | 307GB/s(Pro) |
| ファン | なし | なし | あり |
| 重量 | 1.04 kg | 1.23 kg | 1.55 kg |
| ローカルLLM | 非現実的 | 8B〜14B | 14B〜70B |
| クラウドAI CLI | 快適 | 快適 | 快適 |
| ファインチューニング | 不可 | 限定的 | 実用的 |
| こんな人に | クラウドAI専用 予算最小 |
90%の開発者に ベスト |
ローカルLLM本格運用 持続的推論 |
詳細なMacBook Neoのレビューは「10万円以下でAI開発環境が完成|MacBook NeoでClaude Code・Codex CLI・Gemini CLIを使い倒す」を参照。
選び方はシンプル:
- 予算10万円 → Neo:クラウドAI CLIだけで十分な人。ローカルLLMは諦める
- 予算20〜25万円 → Air M5:クラウドAI + ローカルLLMオプション。90%の開発者にベスト
- 予算25万円以上 + 32GB必要 → Pro:ファインチューニング、持続的推論、14B以上を常用する人
結論 — 誰がMacBook Air M5を買うべきか
答え:13″ / 24GB / 1TB = 244,800円
90%のAI開発者にとって、これが正解だ。
理由はシンプル。クラウドAIツール(Claude Code、Codex CLI、Gemini CLI)が完璧に動く。開発ツール(VS Code、Docker、Chrome)を全て起動してもメモリに余裕がある。オフライン保険としてOllama + Qwen 3 8Bも動く。そしてこれが1.23kg・ファンレス・18時間バッテリーの筐体に収まっている。
M1/M2ユーザーへ:AI性能が最大9.5倍向上。開発ツールの動作速度も体感で別物。買い替えの価値は非常に高い。
M3ユーザーへ:GPU Neural Accelerator追加とWi-Fi 7が主な差分。ローカルLLMを使うならアップグレードの価値あり。
M4ユーザーへ:ストレージ倍増とWi-Fi 7以外の差は小さい。急ぐ必要はない。来年のM6を待つべき。
32GBが欲しいなら:正直に言う。AirのCTOで32GB(274,800円)を選ぶより、MacBook Pro(248,800円〜、32GB標準)の方がファン搭載・高メモリ帯域で幸せになれる可能性が高い。
※本記事の情報は2026年3月5日時点のものです。ベンチマーク値はテスト環境により変動する場合があります。価格は税込、Apple Store価格です。
参考文献・データソース
- Apple Newsroom — MacBook Air with M5発表
- Apple Machine Learning Research — Exploring LLMs with MLX and the Neural Accelerators in the M5 GPU
- 9to5Mac — Apple shows how much faster the M5 runs local LLMs on MLX
- Gadget Hacks — Apple M5 Chip Breaks Records with 4,263 Geekbench Score
- PC Watch — Apple、M5搭載MacBook Airは18万円台から
- ITmedia — M5搭載MacBook Air発表、AI性能M4比で4倍に
- GitHub — ml-explore/mlx-lm
- GitHub — Lightning Whisper MLX
- arXiv — Production-Grade Local LLM Inference on Apple Silicon: MLX vs llama.cpp