📚 全体地図を見る
Llama・Qwen・DeepSeek ― オープンソース3強の技術戦略
「オープンソース LLM って結局どこに向かってるんですか?」
この質問を受けるたびに、まずこの話から始めます。
オープンは一つの方向じゃない。3つの別方向です。
Meta Llama、Alibaba Qwen、DeepSeek — 2026年4月時点でオープンソース LLM の主導権を握っている3ラボは、同じ「オープン」の旗を掲げていても、アーキテクチャもライセンスも戦略もバラバラ。違うどころか、目的地そのものが違います。
- Meta は生態系を守る側に回っている。
- Alibaba はフルラインナップで標準を取りにいく。
- DeepSeek はアーキテクチャで前に出る。
この記事は、各ラボが論文と公式ブログで公開した選択を、エンジニア視点で読み解きます。MoE か Dense か、どのコンテキスト拡張を選んだか、なぜ Huawei Ascend で学習し始めたのか ― プレスリリース調は抜きで行きます。
順序はこうです。
- 3社一望比較表
- Meta Llama ― 生態系の王座と Community License の落とし穴
- Alibaba Qwen ― フルラインナップ + コーディング1位
- DeepSeek ― アーキテクチャ革新の震源
- 勝ち筋4領域
- 未公開モデル(Behemoth・V4)の見方
- FAQ
1. 3社一望比較表
公式発表・公式ブログに基づく比較です。
| 項目 | Meta Llama | Alibaba Qwen | DeepSeek |
|---|---|---|---|
| 最新公開 | Llama 4 Scout / Maverick (2025-04) | Qwen3.6-35B-A3B (2026-04-16) | DeepSeek-V3.2-Exp |
| フラッグシップ | Llama 4 Behemoth (2T、延期) | Qwen3.6-Max-Preview (proprietary) | DeepSeek V4 (1T、近日報道) |
| ライセンス | Llama 4 Community (700M MAU 制限) | Apache 2.0 | MIT / Apache 2.0 系 |
| サイズ | 17B active (109B / 400B total) | Dense 0.6B〜32B、MoE 30B-A3B / 35B-A3B / 235B-A22B / 397B-A17B | 671B total / 37B active |
| アーキテクチャ | MoE + 10M コンテキスト + ネイティブマルチモーダル | Dense+MoE ハイブリッド、262K〜1M コンテキスト | MoE + DeepSeek Sparse Attention(DSA) + MTP |
| 強み | マルチモーダル SOTA (Maverick > GPT-4o 主張) | SWE-bench Verified 73.4 (コーディング) | 推論・ツール使用統合、学習コスト破壊 |
3行に圧縮すると:
- Meta: 大きいのを出したが、ライセンスで縛られる。
- Alibaba: 最も攻撃的。サイズもライセンスも開放。
- DeepSeek: 最も薄いが最も鋭い。アーキテクチャで勝負。
では一社ずつ深掘りします。
2. Meta Llama ― 生態系の王座 + Community License の落とし穴
Meta は長らく 「オープン LLM = Llama」 のイメージを保ってきました。HuggingFace ダウンロード数1位、派生モデル数も圧倒的1位。ローカル LLM のチュートリアルを探せばほぼ Llama ベースです。
このイメージは今も有効。ただ2026年の視点で見ると、Meta は守る側に回っています。
アーキテクチャ選択
Llama 4 Scout/Maverick(2025-04 公開)の核心設計は3つ。
- MoE 採用: 17B active、total は Scout 109B / Maverick 400B。
- 10M トークンコンテキスト: 公開時点で最長の公開コンテキスト。
- ネイティブマルチモーダル: 画像とテキストが同じバックボーンで学習。12言語標準対応。
特にコンテキスト10M はエンジニアリング的に重い意味を持ちます。単に「トークンを多く入れられる」ではなく、長文コンテキストでの attention コストをどう抑えたかが肝で、Meta は iRoPE(interleaved rotary position embedding) 系の位置エンコーディングと attention 最適化を組み合わせたことが公開されています。
戦略解釈
- 自社 Meta AI アシスタント(Instagram・WhatsApp・Facebook 内蔵)の数十億ユーザーバックエンド。
- オープンウェイトを保つことで「Llama = 標準」ポジションを延命。
- ただし真のフロンティアモデルは閉じる方向に傾きつつある。
Community License という落とし穴
ここが重要。Llama 4 のライセンスは「オープン」と呼ばれますが、正確には Llama 4 Community License です。
核心制限2行:
- 月間アクティブユーザー 700M 超の企業は Meta の別途許諾が必要。
- 派生モデル名に「Llama」接頭辞を維持する義務、Meta の商標規定遵守。
実務での意味:
- 中小・中堅企業は事実上自由に利用可能(700M MAU を超えるはずがない)。
- TikTok・ByteDance・Apple クラスなら別途交渉が必要。
- ファインチューンして作った自分のモデル名を「MyModel」にはできず、「Llama-MyModel」の形を保つ必要がある。
つまり OSI 定義の「オープンソース」ではありません。Apache 2.0 や MIT のような無条件オープンを期待して近づくと、後ろで足が引っかかります。
Behemoth 延期 ― 見えない腰
Llama 4 Behemoth(2T パラメータ)は2025年発表時点で「学習中」と予告されていましたが、性能改善が期待値に届かず、出荷が無期延期された という報道が2025年後半から続いています。
これが Meta にとってなぜ痛いか。
- Scout/Maverick はすでに小さい側のモデル。Behemoth がなければ「フロンティアプレイヤー」を名乗りづらい。
- 延期が長引くほど GPT-5・Claude・Gemini 2.5 など閉鎖型フロンティアとの距離が開く。
- オープン側でも Qwen・DeepSeek が追い上げ、Meta が「オープンの主」ポジションを自動維持しにくくなる。
ここは解釈です。Meta 公式の立場は「継続改善中」で、公式出荷日程は現時点(2026-04)で公開されていません。
3. Alibaba Qwen ― 2026年最も攻撃的なラボ
Qwen は2026年に入ってからトーンが一変しました。静かに出していた研究用モデルではなく、ラインナップ全体を武器に市場へ入ってきた 形です。
フルラインナップ戦略
現在の Qwen ラインナップはおおよそこう分布しています。
- Dense モデル: 0.6B / 1.7B / 4B / 8B / 14B / 32B
- MoE モデル: 30B-A3B / 35B-A3B / 235B-A22B / 397B-A17B
このスペクトラムは意図的。エッジデバイス(0.6B)からデータセンター(397B-A17B)まで 同一ブランド・同一トークナイザー・近い API で使えるようにチューンされています。
エンジニア視点で強力な理由:
- プロトタイプは小、本番は大 ― ライブラリの切り替え不要。
- ファインチューニングレシピをサイズ間で持ち運びやすい。
- ローカル実行(Ollama)からクラウド(Alibaba Cloud)まで連続的。
Qwen3.6-35B-A3B ― ローカルコーディングの王
2026-04-16 に公開された Qwen3.6-35B-A3B が今回のハイライト。
- 総パラメータ 35B、active 3B (MoE)。
- Apache 2.0。
- SWE-bench Verified 73.4 ― 公開時点でオープンソースコーディング1位。
この数字がなぜ衝撃か。
SWE-bench Verified は、実際の GitHub Issue をパッチで解決するベンチマーク。「コード1行書く」ではなく 「リポジトリ全体を読み、バグを見つけ、パッチを出し、テストを通す」 作業 ― エージェント能力の総合計測です。
ここでの73.4%はフロンティアの proprietary モデルと接戦に近い数値。そしてそれを active 3B モデル がやってのけた。M-series Mac でも、24GB VRAM GPU 1枚でも動くサイズです。
つまり 「ローカルで動くコーディングエージェント」領域で、Qwen3.6-35B-A3B は現在1強 です。
戦略解釈
- Apache 2.0 = どの企業でも自由に商用化可能。中小企業にとって最も負担が軽い。
- オープンソース標準の座を Meta から奪う意図と読める。
- アジア圏(中・日・韓)言語性能に優位 ― 多言語トークナイザーが元々アジア比重が大きい。
- Alibaba Cloud バンドリングで法人営業まで接続。
Qwen3.6-Max-Preview が proprietary である点は注記が必要。最上位フラッグシップは閉じつつ、その一段下(特に 35B-A3B)まで Apache 2.0 で開く ― 「開いて、一段だけ閉じる」 構造です。
4. DeepSeek ― アーキテクチャ革新の震源
3社のうち DeepSeek が最も薄い。モデルラインナップも製品群も Meta・Alibaba に比べはるかにシンプル。
なのになぜ最も注目されるか。
アーキテクチャと学習方法論を最も攻撃的に公開している から。論文で、コードで、数値で。
アーキテクチャ核心3つ
(1) Mixture-of-Experts (MoE) + 極端な sparsity
DeepSeek-V3 の構造は 671B total / 37B active。つまりパラメータの約5.5%だけが1回の forward で活性化されます。推論コストを17倍以上圧縮する設計。
(2) Multi-head Latent Attention (MLA) → DeepSeek Sparse Attention (DSA)
MLA は DeepSeek-V2 由来の手法で、attention の KV キャッシュを潜在空間に圧縮し、長文コンテキストでのメモリ爆発を緩和します。V3.2-Exp に入って DeepSeek Sparse Attention(DSA) に進化 ― 長文コンテキスト区間の attention を sparsity パターンでさらに削る方向。
長文コンテキストのコストをアーキテクチャレベルで削るのが DeepSeek スタイル。「GPU をもっと積もう」ではなく「計算構造を変えよう」です。
(3) Multi-Token Prediction (MTP)
1回の forward で次の1トークンだけを予測するのではなく、複数トークンを同時に予測するよう学習。学習信号を密に入れる効果 + 推論時 speculative decoding に有利。
学習方法論 ― V3 の $6M ナラティブ
DeepSeek-V3 は 2025-01 公開時に 「約 $6M 規模の学習コスト」 という数字を公式レポートに明記し、市場に衝撃を与えました。
この数字はハードウェア時間の推定値である点は押さえておく必要があります。データ収集・人件費・失敗実験のコストは抜けています。それでも 「純粋な GPU 時間ベースで、この規模でフロンティア級モデルが学習可能」 をオープンで証明したのは DeepSeek が初でした。
そして R1(2025-01) ― 推論 RL 学習のオープン公開。OpenAI o1 が開いた方向を 公開チェックポイントで複製可能に したのも DeepSeek です。
V4 と Huawei Ascend 報道
2026-04 時点で DeepSeek V4 は未公開。ただ複数の報道によれば:
- 1T パラメータ級 MoE。
- ネイティブマルチモーダル。
- Apache 2.0 系ライセンス予定。
- Huawei Ascend 950PR ベースで学習中。
最後の項目が特に象徴的。V3 までは Nvidia H800/H100 ベースでしたが、V4 は中国産 AI アクセラレータで学習されたという話。これが事実なら 「脱Nvidia + 中国 AI 自立」 の最初の象徴ケースになります。
V4 関連のスペック・学習環境は2026-04時点で DeepSeek 公式確定発表ではありません。「近日報道」レベルで扱っている点を明示します。
戦略解釈
- 価格破壊: API 価格 〜$0.30/MTok 付近で OpenAI・Anthropic 比10〜30倍安い。
- 中国公共・金融部門への導入。
- 研究再現性でグローバルオープンソースコミュニティの信頼獲得。
5. 勝ち筋4領域 ― どこが今勝っているか
同じ「オープンソース LLM」でも、用途により誰が最強かは変わります。4つに切るとこう。
FIG 2. 勝ち筋4領域
| 領域 | 勝者 | 根拠 |
|---|---|---|
| ローカル/エッジコーディング | Qwen3.6-35B-A3B | SWE-bench Verified 73.4、active 3B |
| 長文コンテキストマルチモーダル | Llama 4 Scout | 10M トークン、ネイティブビジョン |
| 推論・エージェント・コスト | DeepSeek V3.2 / V4 | DSA + MTP + 〜$0.30/MTok 価格帯 |
| 研究再現性 / 論文公開 | DeepSeek | アーキテクチャ・学習コード・数値を最も多く公開 |
ローカル/エッジコーディング ― Qwen3.6-35B-A3B
MacBook 1台で動かす Claude Code 代替を探すなら、今は Qwen3.6-35B-A3B が答え。active 3B のおかげで M3 Max レベルなら実時間で動き、SWE-bench Verified 73.4 はローカルコーディングエージェント領域で独走中です。
長文コンテキストマルチモーダル ― Llama 4 Scout
10M トークン + ネイティブビジョン。リポジトリ全体 + スクリーンショット数十枚を一度に飲み込む作業で競合がほぼいません。ただし Community License の 700M MAU 制限はサービス設計初期に必ず検討すべきです。
推論・エージェント・コスト ― DeepSeek V3.2 / V4
推論単価とツール使用統合、この2軸で DeepSeek が前に出ています。エージェントを24時間回すワークロードでは、トークンあたり $0.30 という水準が大きすぎて ― 他の選択肢が事実上難しくなります。
研究再現性 ― DeepSeek
論文の品質・公開レベル・コード公開範囲で DeepSeek が圧倒的。アーキテクチャを直接勉強して再現実験したいなら、DeepSeek のテクニカルレポートから読むのが一番速い。
6. 3社マトリックス ― もう一度整理
FIG 1. 3社サイズ・ライセンス・強みマトリックス
• Community License
• 700M MAU 制限
• 10M コンテキスト
• ネイティブマルチモーダル
勝ち筋: 長文ビジョン
• Apache 2.0
• 制限なし
• 262K〜1M コンテキスト
• Dense+MoE ハイブリッド
勝ち筋: ローカルコーディング1位
• MIT / Apache 2.0 系
• 制限なし
• DSA + MLA + MTP
• 〜$0.30/MTok
勝ち筋: 推論・コスト・再現性
7. 未公開モデル(Behemoth・V4)の見方
2026-04時点の市場には「近日」と「延期」が混ざっています。
Llama 4 Behemoth (2T、延期)
- 公式発表時点: 2025-04「学習中」予告。
- 現在の状態: 性能改善が期待値に届かずとの報道、公式出荷日程未定。
- 解釈: 計画通りには進んでいない シグナル。Meta がフラッグシップの空白をいつ・どのサイズで埋めるかが2026年のオープン地形を左右します。
DeepSeek V4 (1T、近日報道)
- 公式発表時点: 未公開(2026-04基準)。
- 報道レベル: 1T MoE / ネイティブマルチモーダル / Huawei Ascend 950PR 学習。
- 解釈: 事実なら アーキテクチャ + マルチモーダル + 脱Nvidia の3重突破。ただしまだ公式確定ではないので、「報道ベースの推定」というラベルを外さずに読むべきです。
未公開モデルへの私のスタンス:
- 製品選定基準には使わない。 現在出ているものだけで判断する。
- ただし 方向性 は読む ― Behemoth 延期は Meta の腰が弱っているサイン、V4 近日は中国側の自立速度が上がっているサイン。
- 公式リリースノートが出るまで「近日報道」ラベルを外さない。
8. FAQ
Q1. オープンソース LLM 比較で結局1つ選ぶなら?
用途次第。ローカルでコーディングエージェントを動かしたい → Qwen3.6-35B-A3B。長文・画像を一度に処理したい → Llama 4 Scout。API コストを極端に抑えたい → DeepSeek V3.2。強制的に1つ推すなら、2026-04時点で最も「リスクの低いデフォルト」は Apache 2.0 + フルラインナップの Qwen 系列です。
Q2. MoE は常に Dense より良いのか?
違います。MoE は active パラメータだけ計算するので推論コストは下がりますが、総パラメータを保持する VRAM が必要。例えば Qwen3.6-35B-A3B は active が 3B でも総 35B をメモリに乗せる必要がある。エッジデバイス(メモリ 16GB 以下)ではむしろ小さめ Dense が有利になることもあります。
Q3. Llama 4 Community License はオープンソース?
厳密には違います。OSI(Open Source Initiative)定義では無条件の自由再配布・改変・商用利用が保証されてこそオープンソース。Llama Community License は 700M MAU 制限と商標規定を求めるため、この定義に合致しません。業界では「open weights」という表現の方が正確です。
Q4. DeepSeek の $6M 学習コストは本当?
公式レポートに明記された数字。ただしこれは GPU 時間ベースのハードウェアコスト推定値 で、データ収集・人件費・失敗実験のコストは除外。「総開発費」と混同すると誤解が生まれます。「同規模モデルを GPU 時間だけで比較すると、DeepSeek が大幅に安く学習した」という比較用数値として読むのが正確です。
9. 次回予告
この記事は AI 学習マップシリーズの P5 です。
次回(P6)では Ollama でこれらのモデルを実際にローカル実行する方法 を扱います。Qwen3.6-35B-A3B を Mac に立ち上げ、DeepSeek-V3 の量子化版を動かし、Llama 4 Scout のどのバージョンをローカルで回せるかまで ― 指でなぞるガイドにします。
10. ソース
- Meta AI, “Llama 4: Multimodal Intelligence”: https://ai.meta.com/blog/llama-4-multimodal-intelligence/
- Llama Models: https://www.llama.com/models/llama-4/
- HuggingFace Meta Llama: https://huggingface.co/meta-llama
- Qwen Blog: https://qwenlm.github.io/blog/qwen3/
- Qwen3.6 GitHub: https://github.com/QwenLM/Qwen3.6
- HuggingFace Qwen3.6-35B-A3B: https://huggingface.co/Qwen/Qwen3.6-35B-A3B
- Alibaba Cloud Blog (Qwen3.6 Coding): https://www.alibabacloud.com/blog/qwen3-6-35b-a3b-agentic-coding-power-now-open-to-all_603043
- DeepSeek API Docs News: https://api-docs.deepseek.com/news/news251201
- HuggingFace DeepSeek-V3.2-Exp: https://huggingface.co/deepseek-ai/DeepSeek-V3.2-Exp
- DeepSeek-V3 GitHub: https://github.com/deepseek-ai/DeepSeek-V3
- DeepSeek R1 News: https://api-docs.deepseek.com/news/news250120
ニュースレター CTA
こうして一概念ずつ最後まで解いて説明する記事を、毎週月曜の朝にメールでお届けしています。受け取りたい方は ニュースレター会員登録(無料・30秒) からどうぞ。


