NVIDIAは、AIスーパーコンピューターを実現するために設計された次世代のRubinプラットフォームを発表しました。RubinはNVIDIA Vera CPU、Rubin GPU、NVLink 6スイッチ、ConnectX-9 SuperNIC、BlueField-4 DPU、Spectrum-6イーサネット スイッチの6つの新チップを緊密に協調設計し、トレーニング時間の短縮と推論トークンコストの大幅な削減を目指します。推論ではBlackwellプラットフォーム比でトークン当たりコストを最大10分の1に、MoEモデルのトレーニングでは必要GPU数を4分の1に抑えるとしています。ラックスケールのVera Rubin NVL72と、x86向けのHGX Rubin NVL8を中核に、年次サイクルでの新世代提供を掲げます。主要クラウドやAI研究機関、サーバーメーカーが採用予定に名を連ね、エコシステムを広く拡張します。
協調設計がもたらすブレークスルー NVLink第6世代やConfidential Computingを搭載
Rubinは、エージェント型AIやリーズニング、ビデオ生成など計算集約ワークロードに対応する5つの技術を打ち出しています。第6世代NVIDIA NVLinkは各GPUに6TB毎秒の帯域を提供し、Vera Rubin NVL72ラック全体では260TB毎秒を実現します。NVIDIA Vera CPUは88のカスタムOlympusコアとNVLink-C2C接続を備え、電力効率を重視した設計です。Rubin GPUは第3世代Transformer Engineを搭載し、AI推論向けにNVFP4で50ペタフロップスの計算性能を提供します。第3世代Confidential Computingにより、CPU、GPU、NVLinkドメイン全体でデータを保護します。第2世代RASエンジンはリアルタイムの健全性チェックや予防保守を可能にし、ラックのモジュール式ケーブルレス設計でBlackwell比最大18倍の速度で組み立てや保守を行えると説明されています。
AIネイティブなストレージと安全なインフラ運用 BlueField-4が中核
NVIDIAはInference Context Memory Storageプラットフォームを新たに導入し、BlueField-4を活用してKVキャッシュをインフラ全体で効率的に共有します。これによりエージェント型AIの応答性やスループットを高め、予測可能で電力効率に優れたスケーリングを支援します。併せてBlueField-4はASTRAと呼ばれるシステムレベルのトラストアーキテクチャを提供し、大規模AI環境のプロビジョニングや分離、運用を単一の信頼点から制御できるようにします。ベアメタルやマルチテナントの展開モデルが広がる中、性能とセキュリティの両立を意図した設計です。複数ユーザーやセッションを跨ぐ大量の推論コンテキストを扱うAIネイティブ組織に向け、長コンテキスト推論への対応も強調されています。
ラックスケールからサーバーボードまで 多様な形態での提供
Vera Rubin NVL72は、72基のRubin GPUと36基のVera CPUにNVLink 6、ConnectX-9 SuperNIC、BlueField-4 DPUを組み合わせた統合システムです。x86ベースのプラットフォーム向けには8基のRubin GPUをNVLinkで接続するHGX Rubin NVL8を提供します。Rubinベースの大規模展開にはDGX SuperPODが参照アーキテクチャとして機能し、BlueField-4、ConnectX-9、InfiniBand、Mission Controlソフトウェアと統合されます。これによりトレーニングと推論、HPC用途まで幅広いワークロードに対応し、スケールアウト設計を容易にします。ラックの保守性向上や組み立ての高速化に関する設計上の工夫は、稼働率の確保やTCO最適化に寄与します。
次世代イーサネット「Spectrum-6」とフォトニクスで効率と稼働を向上
Rubinに最適化されたSpectrum-6イーサネットは、200G SerDesやCo-Packaged Optics、AI最適化ファブリックを採用し、AIファクトリーの効率とレジリエンスを高める設計です。Spectrum-X Ethernet Photonics Co-Packaged Opticsスイッチシステムは、従来比で信頼性を10倍、稼働時間を5倍に向上し、電力効率も5倍としています。Spectrum-XGS Ethernetにより、数百キロメートル離れた施設を単一のAI環境として機能させることが可能になります。これらのネットワーキング技術を統合することで、将来の100万GPU級環境へ向けた拡張性を示します。データセンターのコスト構造に影響する電力効率の改善は、運用面の持続性にもつながります。
エコシステムの広がりと提供時期 主要プレイヤーが採用予定
Rubinは量産段階に入り、2026年後半にパートナーから製品提供開始を予定しています。2026年にはAWS、Google Cloud、Microsoft、OCI、CoreWeave、Lambda、Nebius、NscaleがVera Rubinベースのインスタンスを展開予定です。Microsoftは次世代AIデータセンターの一環としてVera Rubin NVL72を採用し、CoreWeaveも2026年後半から統合を予定しています。サーバーメーカーではCisco、Dell、HPE、Lenovo、SupermicroがRubinベースの製品を提供予定とされています。Anthropic、Cohere、Meta、Mistral AI、OpenAI、Perplexity、Runway、xAIなどのAI研究所やスタートアップも、低遅延で長コンテキストに対応するマルチモーダルシステムの実現に向けて期待を表明しています。加えて、Red HatはRubin向けに最適化されたAIスタックの提供で協業を拡大します。
コメントと位置づけ 次世代AIの加速を狙う年次進化モデル
NVIDIAのジェンスン フアン氏は、トレーニングと推論の需要急増を背景に、6つの新チップの協調設計で次のフロンティアへ踏み出すと述べています。OpenAIやAnthropic、Meta、xAI、Microsoft、AWS、Google、Oracle、Dell、HPE、Lenovoなどからは、Rubinの性能や効率、拡張性に対するコメントが寄せられています。Rubinは第3世代ラックスケールアーキテクチャとしてMGXエコシステムの80社超が参加し、Mission ControlやDGX SuperPODとともに、AIファクトリーの標準化を目指す姿勢が示されています。なお、製品や機能の多くは段階的提供であり、将来予測に関する記述には不確実性がある旨が付記されています。提供時期や仕様は変更される可能性が明記され、最新情報の確認が推奨されます。Rubinの展開は、低コスト推論とMoE効率化を核に、メインストリームのAI導入を加速させる構想です。
詳しくはNVIDIAの公式ページまで。






















