Llama・Qwen・DeepSeek ― オープンソース3強の技術戦略

📍 AIのしくみ地図 — 28/29章
この記事はAIの基礎からMeta-Harness·応用比較まで順に読む全29章シリーズの28章目です。
📚 全体地図を見る
📚 この記事を読む前に: 22編 + P1〜P4を読んでいればOK。特に F7 パラメータF2 Transformer が要。

Llama・QwenDeepSeek ― オープンソース3強の技術戦略

「オープンソース LLM って結局どこに向かってるんですか?」

この質問を受けるたびに、まずこの話から始めます。

オープンは一つの方向じゃない。3つの別方向です。

Meta Llama、Alibaba Qwen、DeepSeek — 2026年4月時点でオープンソース LLM の主導権を握っている3ラボは、同じ「オープン」の旗を掲げていても、アーキテクチャもライセンスも戦略もバラバラ。違うどころか、目的地そのものが違います。

  • Meta は生態系を守る側に回っている。
  • Alibaba はフルラインナップで標準を取りにいく。
  • DeepSeek はアーキテクチャで前に出る。

この記事は、各ラボが論文と公式ブログで公開した選択を、エンジニア視点で読み解きます。MoE か Dense か、どのコンテキスト拡張を選んだか、なぜ Huawei Ascend で学習し始めたのか ― プレスリリース調は抜きで行きます。

順序はこうです。

  1. 3社一望比較表
  2. Meta Llama ― 生態系の王座と Community License の落とし穴
  3. Alibaba Qwen ― フルラインナップ + コーディング1位
  4. DeepSeek ― アーキテクチャ革新の震源
  5. 勝ち筋4領域
  6. 未公開モデル(Behemoth・V4)の見方
  7. FAQ

1. 3社一望比較表

公式発表・公式ブログに基づく比較です。

項目 Meta Llama Alibaba Qwen DeepSeek
最新公開 Llama 4 Scout / Maverick (2025-04) Qwen3.6-35B-A3B (2026-04-16) DeepSeek-V3.2-Exp
フラッグシップ Llama 4 Behemoth (2T、延期) Qwen3.6-Max-Preview (proprietary) DeepSeek V4 (1T、近日報道)
ライセンス Llama 4 Community (700M MAU 制限) Apache 2.0 MIT / Apache 2.0 系
サイズ 17B active (109B / 400B total) Dense 0.6B〜32B、MoE 30B-A3B / 35B-A3B / 235B-A22B / 397B-A17B 671B total / 37B active
アーキテクチャ MoE + 10M コンテキスト + ネイティブマルチモーダル Dense+MoE ハイブリッド、262K〜1M コンテキスト MoE + DeepSeek Sparse Attention(DSA) + MTP
強み マルチモーダル SOTA (Maverick > GPT-4o 主張) SWE-bench Verified 73.4 (コーディング) 推論・ツール使用統合、学習コスト破壊

3行に圧縮すると:

  • Meta: 大きいのを出したが、ライセンスで縛られる。
  • Alibaba: 最も攻撃的。サイズもライセンスも開放。
  • DeepSeek: 最も薄いが最も鋭い。アーキテクチャで勝負。

では一社ずつ深掘りします。


2. Meta Llama ― 生態系の王座 + Community License の落とし穴

Meta は長らく 「オープン LLM = Llama」 のイメージを保ってきました。HuggingFace ダウンロード数1位、派生モデル数も圧倒的1位。ローカル LLM のチュートリアルを探せばほぼ Llama ベースです。

このイメージは今も有効。ただ2026年の視点で見ると、Meta は守る側に回っています。

アーキテクチャ選択

Llama 4 Scout/Maverick(2025-04 公開)の核心設計は3つ。

  • MoE 採用: 17B active、total は Scout 109B / Maverick 400B。
  • 10M トークンコンテキスト: 公開時点で最長の公開コンテキスト。
  • ネイティブマルチモーダル: 画像とテキストが同じバックボーンで学習。12言語標準対応。

特にコンテキスト10M はエンジニアリング的に重い意味を持ちます。単に「トークンを多く入れられる」ではなく、長文コンテキストでの attention コストをどう抑えたかが肝で、Meta は iRoPE(interleaved rotary position embedding) 系の位置エンコーディングと attention 最適化を組み合わせたことが公開されています。

戦略解釈

  • 自社 Meta AI アシスタント(Instagram・WhatsApp・Facebook 内蔵)の数十億ユーザーバックエンド。
  • オープンウェイトを保つことで「Llama = 標準」ポジションを延命。
  • ただし真のフロンティアモデルは閉じる方向に傾きつつある。

Community License という落とし穴

ここが重要。Llama 4 のライセンスは「オープン」と呼ばれますが、正確には Llama 4 Community License です。

核心制限2行:

  • 月間アクティブユーザー 700M 超の企業は Meta の別途許諾が必要。
  • 派生モデル名に「Llama」接頭辞を維持する義務、Meta の商標規定遵守。

実務での意味:

  • 中小・中堅企業は事実上自由に利用可能(700M MAU を超えるはずがない)。
  • TikTok・ByteDance・Apple クラスなら別途交渉が必要。
  • ファインチューンして作った自分のモデル名を「MyModel」にはできず、「Llama-MyModel」の形を保つ必要がある。

つまり OSI 定義の「オープンソース」ではありません。Apache 2.0 や MIT のような無条件オープンを期待して近づくと、後ろで足が引っかかります。

Behemoth 延期 ― 見えない腰

Llama 4 Behemoth(2T パラメータ)は2025年発表時点で「学習中」と予告されていましたが、性能改善が期待値に届かず、出荷が無期延期された という報道が2025年後半から続いています。

これが Meta にとってなぜ痛いか。

  • Scout/Maverick はすでに小さい側のモデル。Behemoth がなければ「フロンティアプレイヤー」を名乗りづらい。
  • 延期が長引くほど GPT-5・Claude・Gemini 2.5 など閉鎖型フロンティアとの距離が開く。
  • オープン側でも Qwen・DeepSeek が追い上げ、Meta が「オープンの主」ポジションを自動維持しにくくなる。

ここは解釈です。Meta 公式の立場は「継続改善中」で、公式出荷日程は現時点(2026-04)で公開されていません。


3. Alibaba Qwen ― 2026年最も攻撃的なラボ

Qwen は2026年に入ってからトーンが一変しました。静かに出していた研究用モデルではなく、ラインナップ全体を武器に市場へ入ってきた 形です。

フルラインナップ戦略

現在の Qwen ラインナップはおおよそこう分布しています。

  • Dense モデル: 0.6B / 1.7B / 4B / 8B / 14B / 32B
  • MoE モデル: 30B-A3B / 35B-A3B / 235B-A22B / 397B-A17B

このスペクトラムは意図的。エッジデバイス(0.6B)からデータセンター(397B-A17B)まで 同一ブランド・同一トークナイザー・近い API で使えるようにチューンされています。

エンジニア視点で強力な理由:

  • プロトタイプは小、本番は大 ― ライブラリの切り替え不要。
  • ファインチューニングレシピをサイズ間で持ち運びやすい。
  • ローカル実行(Ollama)からクラウド(Alibaba Cloud)まで連続的。

Qwen3.6-35B-A3B ― ローカルコーディングの王

2026-04-16 に公開された Qwen3.6-35B-A3B が今回のハイライト。

  • 総パラメータ 35B、active 3B (MoE)。
  • Apache 2.0。
  • SWE-bench Verified 73.4 ― 公開時点でオープンソースコーディング1位。

この数字がなぜ衝撃か。

SWE-bench Verified は、実際の GitHub Issue をパッチで解決するベンチマーク。「コード1行書く」ではなく 「リポジトリ全体を読み、バグを見つけ、パッチを出し、テストを通す」 作業 ― エージェント能力の総合計測です。

ここでの73.4%はフロンティアの proprietary モデルと接戦に近い数値。そしてそれを active 3B モデル がやってのけた。M-series Mac でも、24GB VRAM GPU 1枚でも動くサイズです。

つまり 「ローカルで動くコーディングエージェント」領域で、Qwen3.6-35B-A3B は現在1強 です。

戦略解釈

  • Apache 2.0 = どの企業でも自由に商用化可能。中小企業にとって最も負担が軽い。
  • オープンソース標準の座を Meta から奪う意図と読める。
  • アジア圏(中・日・韓)言語性能に優位 ― 多言語トークナイザーが元々アジア比重が大きい。
  • Alibaba Cloud バンドリングで法人営業まで接続。

Qwen3.6-Max-Preview が proprietary である点は注記が必要。最上位フラッグシップは閉じつつ、その一段下(特に 35B-A3B)まで Apache 2.0 で開く ― 「開いて、一段だけ閉じる」 構造です。


4. DeepSeek ― アーキテクチャ革新の震源

3社のうち DeepSeek が最も薄い。モデルラインナップも製品群も Meta・Alibaba に比べはるかにシンプル。

なのになぜ最も注目されるか。

アーキテクチャと学習方法論を最も攻撃的に公開している から。論文で、コードで、数値で。

アーキテクチャ核心3つ

(1) Mixture-of-Experts (MoE) + 極端な sparsity

DeepSeek-V3 の構造は 671B total / 37B active。つまりパラメータの約5.5%だけが1回の forward で活性化されます。推論コストを17倍以上圧縮する設計。

(2) Multi-head Latent Attention (MLA) → DeepSeek Sparse Attention (DSA)

MLA は DeepSeek-V2 由来の手法で、attention の KV キャッシュを潜在空間に圧縮し、長文コンテキストでのメモリ爆発を緩和します。V3.2-Exp に入って DeepSeek Sparse Attention(DSA) に進化 ― 長文コンテキスト区間の attention を sparsity パターンでさらに削る方向。

長文コンテキストのコストをアーキテクチャレベルで削るのが DeepSeek スタイル。「GPU をもっと積もう」ではなく「計算構造を変えよう」です。

(3) Multi-Token Prediction (MTP)

1回の forward で次の1トークンだけを予測するのではなく、複数トークンを同時に予測するよう学習。学習信号を密に入れる効果 + 推論時 speculative decoding に有利。

学習方法論 ― V3 の $6M ナラティブ

DeepSeek-V3 は 2025-01 公開時に 「約 $6M 規模の学習コスト」 という数字を公式レポートに明記し、市場に衝撃を与えました。

この数字はハードウェア時間の推定値である点は押さえておく必要があります。データ収集・人件費・失敗実験のコストは抜けています。それでも 「純粋な GPU 時間ベースで、この規模でフロンティア級モデルが学習可能」 をオープンで証明したのは DeepSeek が初でした。

そして R1(2025-01) ― 推論 RL 学習のオープン公開。OpenAI o1 が開いた方向を 公開チェックポイントで複製可能に したのも DeepSeek です。

V4 と Huawei Ascend 報道

2026-04 時点で DeepSeek V4 は未公開。ただ複数の報道によれば:

  • 1T パラメータ級 MoE。
  • ネイティブマルチモーダル。
  • Apache 2.0 系ライセンス予定。
  • Huawei Ascend 950PR ベースで学習中。

最後の項目が特に象徴的。V3 までは Nvidia H800/H100 ベースでしたが、V4 は中国産 AI アクセラレータで学習されたという話。これが事実なら 「脱Nvidia + 中国 AI 自立」 の最初の象徴ケースになります。

V4 関連のスペック・学習環境は2026-04時点で DeepSeek 公式確定発表ではありません。「近日報道」レベルで扱っている点を明示します。

戦略解釈

  • 価格破壊: API 価格 〜$0.30/MTok 付近で OpenAI・Anthropic 比10〜30倍安い。
  • 中国公共・金融部門への導入。
  • 研究再現性でグローバルオープンソースコミュニティの信頼獲得。

5. 勝ち筋4領域 ― どこが今勝っているか

同じ「オープンソース LLM」でも、用途により誰が最強かは変わります。4つに切るとこう。

FIG 2. 勝ち筋4領域

領域 勝者 根拠
ローカル/エッジコーディング Qwen3.6-35B-A3B SWE-bench Verified 73.4、active 3B
長文コンテキストマルチモーダル Llama 4 Scout 10M トークン、ネイティブビジョン
推論・エージェント・コスト DeepSeek V3.2 / V4 DSA + MTP + 〜$0.30/MTok 価格帯
研究再現性 / 論文公開 DeepSeek アーキテクチャ・学習コード・数値を最も多く公開

ローカル/エッジコーディング ― Qwen3.6-35B-A3B

MacBook 1台で動かす Claude Code 代替を探すなら、今は Qwen3.6-35B-A3B が答え。active 3B のおかげで M3 Max レベルなら実時間で動き、SWE-bench Verified 73.4 はローカルコーディングエージェント領域で独走中です。

長文コンテキストマルチモーダル ― Llama 4 Scout

10M トークン + ネイティブビジョン。リポジトリ全体 + スクリーンショット数十枚を一度に飲み込む作業で競合がほぼいません。ただし Community License の 700M MAU 制限はサービス設計初期に必ず検討すべきです。

推論・エージェント・コスト ― DeepSeek V3.2 / V4

推論単価とツール使用統合、この2軸で DeepSeek が前に出ています。エージェントを24時間回すワークロードでは、トークンあたり $0.30 という水準が大きすぎて ― 他の選択肢が事実上難しくなります。

研究再現性 ― DeepSeek

論文の品質・公開レベル・コード公開範囲で DeepSeek が圧倒的。アーキテクチャを直接勉強して再現実験したいなら、DeepSeek のテクニカルレポートから読むのが一番速い。


6. 3社マトリックス ― もう一度整理

FIG 1. 3社サイズ・ライセンス・強みマトリックス

Meta Llama
• 17B active
• Community License
• 700M MAU 制限
• 10M コンテキスト
• ネイティブマルチモーダル
勝ち筋: 長文ビジョン
Alibaba Qwen
• 0.6B 〜 397B フルラインナップ
• Apache 2.0
• 制限なし
• 262K〜1M コンテキスト
• Dense+MoE ハイブリッド
勝ち筋: ローカルコーディング1位
DeepSeek
• 671B / 37B active
• MIT / Apache 2.0 系
• 制限なし
• DSA + MLA + MTP
• 〜$0.30/MTok
勝ち筋: 推論・コスト・再現性

7. 未公開モデル(Behemoth・V4)の見方

2026-04時点の市場には「近日」と「延期」が混ざっています。

Llama 4 Behemoth (2T、延期)

  • 公式発表時点: 2025-04「学習中」予告。
  • 現在の状態: 性能改善が期待値に届かずとの報道、公式出荷日程未定。
  • 解釈: 計画通りには進んでいない シグナル。Meta がフラッグシップの空白をいつ・どのサイズで埋めるかが2026年のオープン地形を左右します。

DeepSeek V4 (1T、近日報道)

  • 公式発表時点: 未公開(2026-04基準)。
  • 報道レベル: 1T MoE / ネイティブマルチモーダル / Huawei Ascend 950PR 学習。
  • 解釈: 事実なら アーキテクチャ + マルチモーダル + 脱Nvidia の3重突破。ただしまだ公式確定ではないので、「報道ベースの推定」というラベルを外さずに読むべきです。

未公開モデルへの私のスタンス:

  • 製品選定基準には使わない。 現在出ているものだけで判断する。
  • ただし 方向性 は読む ― Behemoth 延期は Meta の腰が弱っているサイン、V4 近日は中国側の自立速度が上がっているサイン。
  • 公式リリースノートが出るまで「近日報道」ラベルを外さない。

8. FAQ

Q1. オープンソース LLM 比較で結局1つ選ぶなら?

用途次第。ローカルでコーディングエージェントを動かしたい → Qwen3.6-35B-A3B。長文・画像を一度に処理したい → Llama 4 Scout。API コストを極端に抑えたい → DeepSeek V3.2。強制的に1つ推すなら、2026-04時点で最も「リスクの低いデフォルト」は Apache 2.0 + フルラインナップの Qwen 系列です。

Q2. MoE は常に Dense より良いのか?

違います。MoE は active パラメータだけ計算するので推論コストは下がりますが、総パラメータを保持する VRAM が必要。例えば Qwen3.6-35B-A3B は active が 3B でも総 35B をメモリに乗せる必要がある。エッジデバイス(メモリ 16GB 以下)ではむしろ小さめ Dense が有利になることもあります。

Q3. Llama 4 Community License はオープンソース?

厳密には違います。OSI(Open Source Initiative)定義では無条件の自由再配布・改変・商用利用が保証されてこそオープンソース。Llama Community License は 700M MAU 制限と商標規定を求めるため、この定義に合致しません。業界では「open weights」という表現の方が正確です。

Q4. DeepSeek の $6M 学習コストは本当?

公式レポートに明記された数字。ただしこれは GPU 時間ベースのハードウェアコスト推定値 で、データ収集・人件費・失敗実験のコストは除外。「総開発費」と混同すると誤解が生まれます。「同規模モデルを GPU 時間だけで比較すると、DeepSeek が大幅に安く学習した」という比較用数値として読むのが正確です。


9. 次回予告

この記事は AI 学習マップシリーズの P5 です。

次回(P6)では Ollama でこれらのモデルを実際にローカル実行する方法 を扱います。Qwen3.6-35B-A3B を Mac に立ち上げ、DeepSeek-V3 の量子化版を動かし、Llama 4 Scout のどのバージョンをローカルで回せるかまで ― 指でなぞるガイドにします。


10. ソース

  • Meta AI, “Llama 4: Multimodal Intelligence”: https://ai.meta.com/blog/llama-4-multimodal-intelligence/
  • Llama Models: https://www.llama.com/models/llama-4/
  • HuggingFace Meta Llama: https://huggingface.co/meta-llama
  • Qwen Blog: https://qwenlm.github.io/blog/qwen3/
  • Qwen3.6 GitHub: https://github.com/QwenLM/Qwen3.6
  • HuggingFace Qwen3.6-35B-A3B: https://huggingface.co/Qwen/Qwen3.6-35B-A3B
  • Alibaba Cloud Blog (Qwen3.6 Coding): https://www.alibabacloud.com/blog/qwen3-6-35b-a3b-agentic-coding-power-now-open-to-all_603043
  • DeepSeek API Docs News: https://api-docs.deepseek.com/news/news251201
  • HuggingFace DeepSeek-V3.2-Exp: https://huggingface.co/deepseek-ai/DeepSeek-V3.2-Exp
  • DeepSeek-V3 GitHub: https://github.com/deepseek-ai/DeepSeek-V3
  • DeepSeek R1 News: https://api-docs.deepseek.com/news/news250120

ニュースレター CTA

こうして一概念ずつ最後まで解いて説明する記事を、毎週月曜の朝にメールでお届けしています。受け取りたい方は ニュースレター会員登録(無料・30秒) からどうぞ。

バイブコーディング テイラー
バイブコーディング テイラー
AIの仕組みとビジネス応用を日本語・韓国語で記録。毎週月曜、ニュースレター配信中。
ニュースレターを購読する →
JAKO