NVIDIA GTC 2026の基調講演が2026年3月16日、サンノゼのSAPセンターで開催された。Jensen Huang CEOは約2時間にわたり、次世代GPUアーキテクチャ「Vera Rubin」の量産開始、物理AI基盤モデル「GR00T N1.6」、エンタープライズ向けAIエージェント基盤「NemoClaw」、そして2028年投入予定の「Feynman」アーキテクチャのロードマップを発表した。190カ国から39,000人が参加し、AIがソフトウェアからインフラへと進化する時代の幕開けを告げるイベントとなった。
GTC 2026基調講演の全体像:AIインフラ時代の到来
今年のGTCで繰り返されたキーワードは「Physical AI」と「AI Factory」だ。Huang CEOは、AIがクラウド上のソフトウェアサービスから、物理世界で稼働するインフラへと移行していると述べた。基調講演は、チップ→ソフトウェア→モデル→アプリケーションというフルスタック構成で進行し、NVIDIAが単なるGPUメーカーではなく、AIプラットフォーム企業であることを改めて示した。
会場となったSAPセンター(NHLサンノゼ・シャークスの本拠地)には、開発者・研究者・経営者が世界中から集まった。700以上のセッションが4日間にわたって開催され、「Physical AI Days」として2日間がロボティクスと自動運転に特化して設けられている。
Vera Rubinプラットフォーム:6チップ統合の次世代AIスーパーコンピュータ
基調講演の中核を占めたのが、Vera Rubinプラットフォームの詳細だ。CES 2026で初公開されたこのプラットフォームは、GTC 2026で量産体制と具体的なパートナー展開が発表された。
6チップ構成の詳細
Vera Rubinは、NVIDIAとして初の「エクストリーム・コデザイン」による6チップ統合プラットフォームだ。構成は以下の通り。
- Vera CPU:88コアのOlympusベースARMプロセッサ。「Spatial Multi-Threading」技術を搭載し、128GBのGDDR7メモリを装備
- Rubin GPU:336億トランジスタ、2つのレティクルダイで構成。288GBのHBM4メモリ、NVFP4推論で50 PFLOPSを達成
- NVLink 6 Switch:GPU間の高速接続を実現
- ConnectX-9 SuperNIC:次世代ネットワークインターフェース
- BlueField-4 DPU:データ処理ユニット
- Spectrum-6 Ethernet Switch:データセンターネットワーキング
Vera Rubin NVL72の性能
ラックスケールの旗艦構成であるVera Rubin NVL72は、72基のRubin GPUと36基のVera CPUをNVLink 6で接続する。主要スペックは以下の通りだ。
- NVFP4推論性能:3.6 EFLOPS
- 学習性能:2.5 EFLOPS
- HBM4容量:20.7TB
- スケールアップ帯域幅:260 TB/s
- Blackwell比で推論トークンコスト10分の1、MoEモデル学習に必要なGPU数は4分の1
2026年Q1時点で量産開始済み。AWS、Google Cloud、Microsoft Azure、OCIが2026年後半にVera Rubinベースのインスタンスを提供開始する。
GTC 2026 主要発表カード
Vera Rubin GPU
336Bトランジスタ / 288GB HBM4
Blackwell比5倍の推論性能
2026年H2よりパートナー出荷
GR00T N1.6
ヒューマノイド向けVLAモデル
Chain-of-Thought推論を搭載
Newtonエンジンと連携
NemoClaw
オープンソースAIエージェント基盤
Apache 2.0ライセンス
マルチエージェント協調
Feynmanアーキテクチャ
2028年投入予定
TSMC A16(1.6nm)採用
シリコンフォトニクス搭載
Alpamayo
自動運転向けオープンVLAモデル
10Bパラメータ
1,700時間以上の走行データ
N1 / N1X CPU
ARM搭載ラップトップ向けCPU
MediaTek共同開発
Dell/Lenovo搭載予定
Feynmanアーキテクチャ:2028年のロードマップ初公開
Huang CEOは基調講演で、Vera Rubinの次世代となる「Feynman」アーキテクチャのロードマップを初公開した。これまでリーク情報として断片的に知られていた内容が、ここで公式に確認された形だ。
Feynmanの技術的特徴
- プロセス技術:TSMCのA16(1.6nm)を採用
- シリコンフォトニクス:電気信号ではなく光信号でデータ伝送を行う技術を初搭載
- 設計思想:「Inference-First」——長文脈・多段推論を要するAIエージェント向けに最適化
- 電力仕様:5,000W以上(既存の施設インフラでは対応が困難なレベル)
- メモリ:ICMS(Integrated Chip-on-Memory Storage)技術を採用予定
2028年のデータセンター向け出荷を目指しており、量産状況によっては2029年にずれ込む可能性もある。注目すべきは、推論処理に特化した「Inference-First」という設計思想だ。学習と推論の両方をカバーしてきた従来のアプローチから、自律エージェントの推論ワークロードを最優先する方向へと舵を切った。
NVIDIA GPUロードマップ(2024〜2028)
GB200 NVL72
208B transistors
GB300 NVL72
15 PFLOPS FP4
NVL72: 3.6 EFLOPS
336B transistors
シリコンフォトニクス
Inference-First設計
※ Vera Rubinが現行世代(紫枠)、Feynmanは予定(破線枠)
物理AI:GR00T N1.6とNewtonエンジン
GTC 2026では「Physical AI Days」として2日間がロボティクスに充てられ、ヒューマノイドロボット、自動運転、産業AI、デジタルツインの各分野で成果が発表された。
Isaac GR00T N1.6
NVIDIAのヒューマノイドロボット向け基盤モデル「Isaac GR00T N1.6」は、視覚・言語・行動を統合するVLA(Vision-Language-Action)モデルだ。前バージョンからの最大の進化は、Chain-of-Thought推論の搭載にある。ロボットがパターンマッチングではなく、段階的に状況を推論して行動を決定できるようになった。
マルチモーダル入力(言語と画像)を受け取り、多様な環境でのマニピュレーションタスクを実行する。クロスエンボディメント対応で、異なるロボットの身体構造にも適用可能だ。
Newtonオープンソース物理エンジン
Google DeepMindおよびDisney Researchと共同開発中の「Newton」は、ロボット開発に特化したオープンソースの物理エンジンだ。Disney Researchは、このNewtonを活用して次世代エンターテインメントロボットの開発を進めている。基調講演では、スター・ウォーズに登場するBDXドロイドが壇上に登場し、話題を集めた。
📌 あなたのAI活用レベルを無料で診断しませんか? → Instagram @taro_taro609 にDMで「診断」と送ってください。
NemoClaw:エンタープライズAIエージェント基盤
GTC 2026に先立って発表されたNemoClawは、基調講演で正式にデモが披露された。Apache 2.0ライセンスのオープンソースプラットフォームで、企業がマルチステップの自律タスクを実行するAIエージェントを構築・デプロイできる。
NemoClawの主要機能
- マルチエージェント協調:複数のAIエージェントが連携してタスクを遂行
- ツール統合:外部APIやデータベースとの接続
- ハードウェア非依存:NVIDIA GPU以外の環境でもデプロイ可能
- NeMo/NIMエコシステム統合:NVIDIAの推論・モデル管理基盤とシームレスに連携
OpenAIやAnthropic、各クラウドプロバイダーが提供する類似サービスに対し、NVIDIAはオープンソースとエンタープライズグレードのセキュリティを武器に差別化を図る。
N1 / N1X:NVIDIAのラップトップ向けCPU参入
基調講演で大きな反響を呼んだのが、NVIDIAのラップトップ向けARMベースCPU「N1」「N1X」の公式発表だ。MediaTekとの共同開発で、CPU・GPU機能を統合したオールインワンのモバイルSoCとなる。
- アーキテクチャ:ARMベース(Qualcomm Snapdragon X Eliteと同じARMエコシステム)
- 差別化ポイント:ゲーミング性能に注力。x86ゲームのARM上での動作最適化に投資
- パートナー:DellとLenovoが2026年前半に搭載ノートPCを発売予定
- 対応OS:Windows on ARM
NVIDIAがIntelやAMDと同じ土俵でPC向けCPU市場に参入するのは初めてのことだ。GPU技術の強みを活かしたゲーミング性能が最大の差別化要因となる。
RTX PRO Blackwellシリーズとワークステーション向けNIM
ワークステーション市場では、RTX PRO Blackwellシリーズが発表された。AI駆動のワークロード向けに設計された新世代のプロフェッショナルGPUで、NIM microservicesとの統合が最大の特徴だ。
- ChatRTXアップデート:NIM microservicesに対応し、新しい基盤モデルへのアクセスが可能に
- OpenUSD向けNIM:世界初のOpenUSD開発向け生成AIモデル。USD Code NIMがPythonコードを自動生成
- USD Search NIM:自然言語や画像入力でOpenUSD・3Dデータを検索
パートナーシップとインフラ展開
GTC 2026では、複数の大型パートナーシップも発表された。
主要パートナーシップ一覧
| パートナー | 内容 | 規模 |
|---|---|---|
| Thinking Machines Lab | Vera Rubinシステムの複数年戦略提携。フロンティアモデル学習用に1GW以上のGPUを展開 | 1GW+ |
| Equinix | AI Factoryソリューション。分散AIハブをPalo Alto Networksと共同展開 | グローバル |
| Lenovo | AI Cloud Super Factory。Vera Rubinプラットフォーム対応 | エンタープライズ |
| Cisco | 6G AI-Nativeプラットフォーム共同開発(ダイヤモンドスポンサー) | 通信インフラ |
| クラウド4社 | AWS / Google Cloud / Microsoft / OCI がVera Rubinインスタンスを2026年後半に提供 | クラウド全域 |
世代別GPU性能比較
| 項目 | GB200 (Blackwell) | GB300 (Blackwell Ultra) | Vera Rubin NVL72 |
|---|---|---|---|
| トランジスタ数 | 208B | 208B+ | 336B |
| メモリ種別 | HBM3e | HBM3e 288GB | HBM4 288GB |
| メモリ帯域幅 | 8 TB/s | 8 TB/s | 22 TB/s |
| NVL72推論性能(FP4) | 1.1 EFLOPS | 1.1 EFLOPS | 3.6 EFLOPS |
| GPU単体推論(NVFP4) | 10 PFLOPS | 15 PFLOPS | 50 PFLOPS |
| 冷却方式 | 液冷 | 液冷 | 液冷 |
開発者にとっての注目ポイント
GTC 2026の発表内容を、開発者の立場から整理すると3つの軸が見える。
1. 推論コストの劇的な低下
Vera Rubinプラットフォームにより、推論トークンコストが従来の10分の1に下がる。これにより、これまでコスト面で断念していたリアルタイム推論アプリケーションが現実的になる。個人開発者がAPIコスト試算を見直すタイミングだ。エージェント型AIの運用コストが大幅に下がれば、開発の優先順位も変わるだろう。
2. NIMエコシステムの拡大
NIM microservicesがOpenUSD、ChatRTX、ワークステーション向けツールに統合されたことで、NVIDIAプラットフォーム上での開発ワークフローが一貫したものになりつつある。特にOpenUSD向けのコード自動生成は、3D/メタバース開発者にとって即戦力となる。NeMo、NIM、NemoClaw(エージェント基盤)が一つのエコシステムとして統合されている点も見逃せない。
3. 物理AI開発の民主化
GR00T N1.6のオープンモデル公開と、Newtonオープンソース物理エンジン、Alpamayoの1,700時間超の走行データ公開により、ロボティクス・自動運転開発のエントリーバリアが下がった。以前はロボティクスの基盤モデルを学習するには膨大なリソースが必要だったが、オープンモデルの微調整から始められる環境が整いつつある。
関連記事:NVIDIA GTC 2026の概要解説はこちらでは、5大発表の全体像を解説している。また、AIエージェント開発に興味がある方はエージェンティック・エンジニアリング入門ガイドも参考にしてほしい。
よくある質問(FAQ)
Q1. GTC 2026の基調講演はいつ、どこで行われた?
2026年3月16日午前11時(太平洋時間)、サンノゼのSAPセンターで開催された。約2時間の講演で、NVIDIAのウェブサイトからライブストリーミングとオンデマンド視聴が可能。参加登録は不要。
Q2. Vera Rubin GPUの性能はBlackwellと比べてどれくらい向上した?
NVFP4推論性能で約5倍(50 PFLOPS vs 10 PFLOPS)、学習性能で約3.5倍の向上。メモリ帯域幅は22 TB/sで、Blackwellの8 TB/sから2.8倍に拡大している。推論トークンコストは約10分の1に低減される。
Q3. Feynmanアーキテクチャとは?いつ登場する?
Vera Rubinの次世代となるGPUアーキテクチャ。TSMCの1.6nmプロセスを採用し、シリコンフォトニクス技術を搭載する。2028年のデータセンター向け出荷を目指しているが、2029年にずれ込む可能性もある。AIエージェント向けの「Inference-First」設計が特徴。
Q4. NemoClaw はどのようなプラットフォーム?
NVIDIAが提供するオープンソースのエンタープライズAIエージェント構築プラットフォーム。Apache 2.0ライセンスで公開され、マルチエージェント協調、外部ツール統合、ハードウェア非依存のデプロイが可能。NeMoやNIMエコシステムと統合されている。
Q5. GR00T N1.6とNewtonエンジンの関係は?
GR00T N1.6はヒューマノイドロボット向けの基盤モデル(VLA)、Newtonはロボット開発用のオープンソース物理エンジン。Newtonはシミュレーション環境でGR00T N1.6を学習・検証するために使われる。Google DeepMindとDisney Researchとの共同開発。
Q6. NVIDIAのラップトップCPU「N1」はいつ買える?
DellとLenovoが2026年前半に搭載ノートPCを発売予定。MediaTekとの共同開発によるARMベースSoCで、ゲーミング性能に重点を置いている。価格やモデル名は未公表。
Q7. GTC 2026の講演はオンラインで視聴できる?
基調講演はnvidia.comで無料ライブ配信された。登録不要でオンデマンド視聴も可能。700以上のセッションも順次公開される予定。
まとめ:NVIDIAが描くAIの現在地と未来
GTC 2026の基調講演で明確になったのは、NVIDIAの戦略が「AIチップの供給」から「AI実行環境そのものの提供」へと完全にシフトしたことだ。Vera Rubinによる推論コストの劇的な低下、NemoClawによるエージェント開発の標準化、GR00T N1.6とNewtonによる物理AI開発の民主化——これらはすべて、開発者がAIアプリケーションを「作る」から「動かす」フェーズに移行するための基盤整備だ。
2028年のFeynmanアーキテクチャまでのロードマップが示されたことで、少なくとも今後2年間の技術的方向性は明確になった。開発者として注視すべきは、推論コスト10分の1がもたらすアプリケーション設計の変化と、NIMエコシステムの拡大速度だ。
関連記事:AIコードエディタの活用法はClaude Code Agent Teamsで詳しく解説している。
🎯 あなたのAI活用レベルを無料診断
「AI気になるけど、何から始めれば…」そんな方に最適な3分診断。
あなたに合ったAI活用プランを個別にご提案します。
📘 バイブコーディング入門ガイドPDF(¥1,480)でゼロから始めよう →
AI時代の開発手法「バイブコーディング」をゼロから学べる実践ガイド。環境構築からプロンプト設計まで網羅。
ソースリスト
- NVIDIA GTC 2026 Keynote公式ページ
- NVIDIA Newsroom: Rubin Platform — Six New Chips
- VideoCardz: Vera Rubin NVL72 Detailed Specs
- NVIDIA Blog: GTC 2026 Live Updates
- NVIDIA Investor Relations: Physical AI Models
- NVIDIA Newsroom: Alpamayo Autonomous Vehicle Models
- GitHub: NVIDIA Isaac GR00T N1.6
- NVIDIA Research: GR00T N1.6
- NVIDIA Blog: RTX PRO Blackwell and NIM
- Tom’s Hardware: Blackwell Ultra B300 Specs
著者:稲邉舜太朗(Lovable公式アンバサダー)
テイラーの隠れ家 管理人。AI・バイブコーディングを軸に、開発者と非開発者の両方に向けた情報を発信中。
📌 関連記事