Cisco、Dell Technologies、HPE、Lenovo、Supermicroが、AI から IT までのワークロードを高速化する NVIDIA RTX PRO 6000 Blackwell Server Edition GPU を搭載した高需要向けサーバーを発表

バンクーバー、ブリティッシュコロンビア州 — SIGGRAPH — 2025 年 8 月 11 日 — NVIDIA は本日、NVIDIA RTX PRO™ 6000 Blackwell Server Edition GPU が世界有数のエンタープライズ サーバーに搭載されると発表しました。これにより、従来の CPU システムからアクセラレーテッド コンピューティング プラットフォームへの移行が加速されます。
これらの新しい 2U メインストリーム サーバーにより、世界中の企業は、最も広範に採用されているラックマウント システムで NVIDIA Blackwell アーキテクチャを活用し、データセンターで画期的なパフォーマンスと効率を達成できるようになります。
Cisco、 Dell Technologies、HPE、Lenovo、Supermicro などのグローバル システム パートナーからは、複数の構成で利用可能な 2U NVIDIA RTX PRO サーバー が提供され、エージェント型 AI、コンテンツ作成、データ分析、グラフィックス、科学シミュレーション、産業用 AI およびフィジカル AI に及ぶエンタープライズ ワークロード全体の高速化が実現できるようになります。
NVIDIA の創業者/ CEO である ジェンスン フアン(Jensen Huang )は次のように述べています。「AI は 60 年ぶりにコンピューティングを再発明しています。クラウドで始まったことが、今やオンプレミスのデータ センターのアーキテクチャを変革しています。世界有数のサーバー プロバイダーと共に、NVIDIA Blackwell RTX PRO サーバーをエンタープライズと産業用 AI の標準プラットフォームとして提供していきます。」
NVIDIA RTX PRO サーバー ファミリーが、データセンターにアクセラレーテッド システムを導入
企業は毎年ビジネス ワークロード向けに、数百万台のサーバーを導入しています。 AI が業務においてますます重要になる中、企業はこれらのシステムを高速化された サーバーで刷新できるようになります。 RTX PRO サーバーによって、データ分析、シミュレーション、ビデオ処理、グラフィックス レンダリングなどの従来の CPU ベースのワークロードに GPU アクセラレーションがもたらされます。パフォーマンスは最大で 45 倍にまで向上し、CPU のみの 2U システムと比較してエネルギー効率は 18 倍に向上し、所有コストを削減することができます。
NVIDIA RTX PRO サーバーは、スペース、電力および冷却の面で制約のあるデータ センターで AI ファクトリーを構築する企業の顧客に、画期的な Blackwell の性能を提供するオンプレミス インフラの新たなクラスです。
これらのシステムは、エンタープライズ エージェント型 AI 向けに最新のストレージ システムを構築できるカスタマイズ可能なリファレンス設計である NVIDIA AI データ プラットフォーム のインフラ基盤になります。 Dell は SIGGRAPH で、NVIDIA AI データ プラットフォーム リファレンス デザインと統合された Dell AI Data Platform の最新情報と、2 つの RTX PRO 6000 GPU、NVIDIA AI Enterprise ソフトウェア、NVIDIA ネットワーキングを搭載した Dell PowerEdge R7725 2U サーバーの最新情報を発表します。
新しい 2U メインストリーム システムは、5 月に COMPUTEX で発表された RTX PRO サーバー ファミリーに加わるものであり、2 基、4 基、8 基の NVIDIA RTX PRO 6000 Blackwell GPU を搭載可能なラックマウント型設計を幅広く提供します。 これらのサーバーは、パフォーマンス、効率、コストの最適化を目指す企業に最適です。
エンタープライズ データ センター向けの画期的な AI パフォーマンス
新しい RTX PRO サーバーは、AI や機械学習、データ分析、3D グラフィックス、科学シミュレーションを含む幅広いアプリケーションに汎用性のある高性能プラットフォームを提供します。 これらのサーバーには、以下の特徴を含む最新の Blackwell アーキテクチャ のイノベーションが組み込まれています。
- 第 5 世代 Tensor コアと第 2 世代 Transformer Engine は、FP4 精度をサポートし、前世代の NVIDIA L40S GPU と比較して最大 6 倍の推論性能を実現します。
- フォトリアルなレンダリングとビジュアライゼーションを可能にする第 4 世代 NVIDIA RTX™ テクノロジを採用し、L40S GPU と比較して最大 4 倍の性能を実現します。
- マルチユーザー AI 展開に適したエンタープライズ グレードの規模に向けて、仮想化と GPU ごとに 4 つの完全に分離されたインスタンスを可能にする NVIDIA マルチインスタンス GPU 技術を採用しています。
- 電力ワットあたりのパフォーマンスを向上させて、持続可能なデータセンター運用を支援します。
フィジカル AI およびロボティクスのワークロードを高速化
NVIDIA Omniverse™ ライブラリと NVIDIA Cosmos™ 世界基盤モデルを搭載した RTX PRO サーバーにより、フィジカルAI 開発者は、工場やロボットのシミュレーション、大規模な合成データ生成などのデジタルツインを含むアプリケーションを構築、導入することができます。
RTX PRO サーバーは、L40S GPU を搭載したシステムに比べ、シミュレーションおよび合成データ生成のワークフローを最大 4 倍高速に実行できます。
また、空間をよりスマートで安全なものにするために、RTX PRO サーバーは、NVIDIA Metropolis プラットフォームの一部であるビデオ検索と要約向けの最新の NVIDIA Blueprint for video search and summarization (VSS) を含む高度なブループリントをサポートし、さらにビジョン言語モデルと合成データ生成拡張をサポートしているため、フィジカル AI 環境全体の生産性を向上させ、安全性を強化します。
エンタープライズ AI およびエージェントのスピードと規模
すべての RTX PRO サーバーは、AI 開発と展開を高速化し、セキュリティを確保するソフトウェア レイヤーである NVIDIA AI Enterprise の認証を取得しています。
RTX PRO サーバーは、AI 推論モデルを活用して複雑なタスクを自動化する AI エージェントの実行にも最適です。 これらのモデルには、本日発表された Llama Nemotron Super が含まれます。単一の NVIDIA RTX PRO 6000 GPU 上で NVFP4 で実行した場合、NVIDIA H100 GPU 上での FP8 と比較して、最大 3 倍のコスト パフォーマンスを発揮します。 これにより、より正確な推論を低コストで実現できます。
Blackwell プラットフォームは、強力な開発ツール、NVIDIA CUDA-X™ ライブラリ、600 万人以上の開発者、6,000 近くのアプリケーションからなる NVIDIA のエコシステムを基盤としており、数千台の GPU にわたるパフォーマンスを拡張します。
提供時期
世界的なシステム メーカーである Cisco、Dell、HPE、Lenovo、Supermicro は、幅広い種類の NVIDIA Certified Systems として RTX PRO サーバーを提供します。 RTX PRO サーバーを市場に投入しているその他のデータセンター システム パートナーには、Advantech、Aetina、Airves、ASRock Rack、ASUS、Compal、Foxconn、GIGABYTE、Inventec、MiTAC Computing、MSI、PEGATRON、Quanta Cloud Technology (QCT)、Wistron、Wiwynn が含まれます。
顧客は、世界中のこれらのシステム メーカーおよびチャネル パートナーから本日より RTX PRO サーバーの注文が可能です。 8 基の RTX PRO 6000 GPU を搭載した 4U フォーム ファクター構成は、すでに利用可能です。 2U メインストリーム RTX PRO サーバーは、今年後半から提供開始予定です。 RTX PRO サーバーご購入に関する詳細については、こちらをご覧ください。
SIGGRAPH での NVIDIA Research の特別講演をご覧ください。
※本発表資料は米国時間 2025年 8 月 11 日に発表されたプレスリリースの抄訳です。
NVIDIAについて
NVIDIA (NASDAQ: NVDA) はアクセラレーテッド コンピューティングの世界的なリーダーです。
引用
