MENU

ニュース

オラクルとAMD、クラウド上で5万GPU規模のAIスーパークラスターを提供開始

  • URLをコピーしました!

オラクルとAMDが提携を拡大し、OCI上にAMD Instinct MI450を中心としたAIスーパークラスターを立ち上げます。5万基のGPU配備を皮切りに、HeliosラックやUALinkなどの設計で大規模AIの性能と効率を追求する、本格的なクラウドAI時代の幕開けです。

Heliosラック、MI450、UALinkが実現する「規模」と「効率」

オラクルはAMDとの連携を強化し、OCIでAMD Instinct MI450シリーズGPUを採用したAIスーパークラスターを一般提供します。初期展開は2026年第3四半期に5万基のGPUから始まり、2027年以降にさらに拡大する計画です。OCI上でのこの投入は、次世代の大規模AIモデルの学習と推論に必要な計算規模をクラウドで提供するという狙いがあります。

MI450は各GPUあたり最大432GBのHBM4と20TB/sのメモリー帯域幅を備え、前世代よりも大きなモデルをメモリー上で扱える点が特徴です。これによりモデル分割の手間が減り、より迅速に結果を得ることが期待されます。OCI環境ではこれを密度の高い液冷式72GPUラック構成のHeliosラックで運用し、パフォーマンス密度とエネルギー効率を両立させます。

ネットワーク面では、UALinkとUALoEを核としたスケールアウト設計や、Vulcanoと呼ばれるAMD Pensandoベースの800Gbps AI-NICを最大3基まで搭載できる構成が用意されます。これによりラック外の通信レイテンシを抑えつつ、高速で可逆的な相互接続とメモリー共有を実現し、大規模分散トレーニングの効率性を高めます。

また、ヘッドノードには次世代のAMD EPYC「Venice」を採用し、ジョブオーケストレーションやデータ処理の加速を図ります。このCPUは機密コンピューティング機能を含む組み込みのセキュリティ機能を備え、機密性の高いAIワークロードの保護にも配慮しています。さらに、AMD PensandoベースのDPUによるコンバージド・ネットワーキングでデータ取り込みとセキュリティを強化します。

ソフトウェア面ではオープンソースのAMD ROCmスタックをサポートし、一般的なフレームワークやライブラリとの互換性を維持します。OCIはまた、MI355Xを使った「OCI Compute」構成や、最大131,072基まで拡張可能なOCI Superclusterの提供も発表しており、用途やコストに応じた選択肢を拡げています。

詳しくは「日本オラクル株式会社」の公式ページまで。
レポート/DXマガジン編集部 權

シェアはこちらから
  • URLをコピーしました!
  • 週刊SUZUKI
  • 日本オムニチャネル協会
  • 公式LINEメンバー

お問い合わせ

取材のご依頼やサイトに関するお問い合わせはこちらから。

問い合わせる