他に類のないターンキー型のプライベートクラウドAIソリューションである新ラインアップは、サステナブルなアクセラレーテッドコンピューティングおよび充実したライフサイクルサービスにより、AI導入による価値実現までの時間を短縮
概 要
・HPEとNVIDIAの共同開発による新しいAIソリューションである、NVIDIA AI Computing by HPEの市場を共同で開拓
・HPE Private Cloud AIは、HPEとNVIDIAが共同で開発したAIオファリング
ヒューレット・パッカード エンタープライズ(HPE)(日本ヒューレット・パッカード合同会社 本社:東京都江東区、代表執行役員社長:望月 弘一)とエヌビディア合同会社(本社:東京都港区、日本代表兼米国本社副社長 大崎真孝)は本日、企業による生成AIの導入加速を支援することを目的に共同で開発した、AIソリューションのポートフォリオおよび共同の市場開拓の取り組みであるNVIDIA AI Computing by HPEを発表しました。
ポートフォリオの重要なオファリングの1つである、HPE Private Cloud AIは、他に類のないソリューションで、現時点では最も密接な統合を、NVIDIA AIコンピューティング、ネットワーク、ソフトウェアと、HPEのAIストレージ、コンピュート、HPE GreenLakeクラウドに実現しています。HPE Private Cloud AIは、あらゆる規模の企業が優れたエネルギー効率で、高速かつ柔軟な方法で生成AIアプリケーションのサステナブルな開発と展開を行えるよう支援します。IT 運用のワークロードとIT効率の向上を支援する新しいOpsRamp AIコパイロットを搭載したHPE Private Cloud AIは、フルライフサイクル管理を提供するセルフサービスのクラウドエクスペリエンスにより、最適にサイジングされた4種類の構成で広範なAIワークロードとユースケースをサポートします。
NVIDIA AI Computing by HPEで提供する全ての製品およびサービスの市場開拓にあたっては、既存のパートナープログラムである、HPE Partner ReadyおよびHPE Partner Ready Vantageの拡張を実施します。幅広い販売パートナー向けの新しい学習コンテンツ追加やワークショップを実施する他、新たなAI関連資格を設け、様々な業種のお客様が複雑なAIワークロードを実行できるよう共同で取り組みます。
年次イベントHPE Discoverの基調講演でHPEの社長兼CEOであるアントニオ・ネリがNVIDIA創業者/CEOのジェンスン フアン氏と一緒に発表したNVIDIA AI Computing by HPEは、数十年にわたる両社のパートナーシップの拡大を示し、両社による多大な時間と資源のコミットメントを象徴します。
HPEの社長兼CEOであるアントニオ・ネリ(Antonio Neri)は次のように述べています。
「生成AIは、企業の変革に活かせる無限の可能性を秘めていますが、細分化された複雑なAIテクノロジーには多くのリスクや障壁が大手企業による大規模な導入を困難にし、企業にとって最も貴重な資産である独自データが危険にさらされる可能性があります。生成AIが無限の可能性を企業において発揮し、生産性の飛躍的な向上と、新たな収益源を創出するAIのユースケースを開発することに資源を集中させることができるよう、HPEとNVIDIAは、AIのためのターンキー型プライベートクラウドを共同開発しました」
NVIDIA創業者/CEOのジェンスン フアン(Jensen Huang)氏は次のように述べています。
「生成AIとアクセラレーテッドコンピューティングは、あらゆる業界が産業革命に挑む中、抜本的な変革に拍車をかけています。NVIDIAとHPEがこれほどまでに両社のテクノロジーを密接に統合させたことは初めてであり、NVIDIA AIコンピューティングスタック全体とHPEのプライベートクラウドテクノロジーを組み合わせることで、企業のお客様や AIプロフェッショナルがAIの領域を拡大できるよう、最先端のコンピューティングインフラとサービスを提供します」
HPEとNVIDIAによる共同開発のPrivate Cloud AIポートフォリオ
HPE Private Cloud AIは、クラウドをベースとするユニークなエクスペリエンスを提供し、イノベーションとROI(投資収益率)を加速させるとともに、AIに起因するエンタープライズリスクを管理します。本ソリューションは以下を実現します:
・独自のデータを利用した推論、ファインチューニング、RAG AI ワークロードのサポート
・データプライバシー、セキュリティ、透明性、およびガバナンス要件に対応したエンタープライズ制御
・生産性の向上に寄与するITOpsおよびAIOps機能を提供するクラウドエクスペリエンス
・将来のAI適用の機会や成長に柔軟に対応する迅速な導入パス
HPE Private Cloud AIにキュレーションされたAIとデータソフトウェアスタック
AIとデータソフトウェア スタックの基盤は、NVIDIA NIM™推論マイクロサービスを含むNVIDIA AI Enterpriseソフトウェア プラットフォームから始まります。
NVIDIA AI Enterpriseは、データサイエンスのパイプラインを高速化し、本番環境グレードのコパイロットやその他の生成AIアプリケーションの開発と展開を効率化します。NVIDIA AI Enterpriseに含まれるNVIDIA NIMは、最適化されたAIモデル推論のための使いやすいマイクロサービスを提供し、様々なユースケースにおけるAIモデルのプロトタイプからセキュアな展開へのスムーズな移行を実現します。
NVIDIA AI EnterpriseとNVIDIA NIMを補完するHPE AI Essentialsソフトウェアは、統合されたコントロールプレーンを通じて、すぐに実行可能なAIおよびデータ基盤ツールのセットを提供します。HPE AI Essentialsソフトウェアは、データおよびAIモデルのコンプライアンスや、AIライフサイクル全体にわたってAIパイプラインのコンプライアンス、説明可能性、再現性を保証する拡張可能な機能など、適用可能なソリューションと継続的なエンタープライズサポート、および信頼できるAIサービスを提供します。
AIおよびデータソフトウェアスタックに最適なパフォーマンスを提供するにあたって、HPE Private Cloud AIは、NVIDIA Spectrum-X™ Ethernetネットワーキング プラットフォーム、HPE GreenLake for File Storage、およびNVIDIA L40S、NVIDIA H100 NVL Tensor コア GPU、NVIDIA GH200 NVL2プラットフォームをサポートするHPE ProLiantサーバーを含む、完全に統合されたAIインフラストラクチャスタックを提供します。
HPE GreenLake クラウドが実現するクラウド エクスペリエンス
HPE Private Cloud AIは、HPE GreenLakeクラウドによって実現されるセルフサービスのクラウドエクスペリエンスを提供します。単一のプラットフォームベースのコントロールプレーンを通じて、HPE GreenLakeクラウドサービスは、エンドポイント、ワークロード、データをハイブリッド環境全体で自動化、オーケストレーション、管理するための管理性と可観測性を実現します。これには、ワークロードとエンドポイントのサステナビリティメトリクスも含まれます。
HPE GreenLakeクラウドとOpsRampのAIインフラ可観測性とコパイロットアシスタント
OpsRampのITオペレーションはHPE GreenLakeクラウドと統合されており、可観測性とAIOpsをすべてのHPE製品とサービスに実現します。OpsRampは、NVIDIA NIMおよびAIソフトウェア、NVIDIA Tensor コア GPU、AIクラスタ、NVIDIA Quantum InfiniBandおよびNVIDIA Spectrum Ethernetスイッチを含む、エンドツーエンドのNVIDIAアクセラレーテッドコンピューティングスタックの可観測性を実現します。IT管理者は、ハイブリッド、マルチクラウド環境にわたって、AIインフラストラクチャとワークロードを監視し、異常を特定するためのインサイトを得ることができます。
新しいOpsRampの運用コパイロットは、NVIDIAのアクセラレーテッド コンピューティング プラットフォームを活用し、大規模なデータセットを解析して会話型のアシスタントによるインサイトを得ることで、運用管理の生産性を高めます。また、OpsRampはCrowdStrikeのAPIとの統合により、インフラストラクチャ全体とアプリケーション全体にわたるエンドポイントセキュリティが統合されたサービスマップビューを参照することができます。
HPEは、NVIDIAの最新GPU、CPU、Superchipのサポートを追加
・HPE Cray XD670は8基のNVIDIA H200 NVL Tensor コア GPUをサポートし、大規模言語(LLM)の構築に最適です。
・NVIDIA GH200 NVL2を搭載するHPE ProLiant DL384 Gen12サーバーは、大型モデルまたはRAGを使用するLLM利用者に最適です。
・最大8基のNVIDIA H200 NVL Tensor コア GPUをサポートするHPE ProLiant DL380a Gen12サーバーは、生成AIワークロードを柔軟に拡張したいLLMユーザーに最適です。
・HPEは、NVIDIA GB200 NVL72 / NVL2、新しいNVIDIA Blackwell、NVIDIA Rubin、NVIDIA VeraアーキテクチャをTime-to-Marketでタイムリーにサポートする体制が整っています。
高密度ファイルストレージは、NVIDIA DGX BasePODおよびNVIDIA OVXシステム認定
HPE GreenLake for File Storageは、NVIDIA DGX BasePOD認定およびNVIDIA OVX™ストレージ認定を取得し、AI、生成AI、GPU集約型の大規模ワークロードを高速化するための実証済みのエンタープライズファイルストレージソリューションを提供します。HPEは、今後予定されているNVIDIAリファレンス アーキテクチャ ストレージ認定プログラムにおけるTime-to-Marketパートナーです。
提供開始時期
2024年夏から一般提供開始
・デュアルNVIDIA GH200 NVL2を搭載したHPE ProLiant DL384 Gen12サーバー
・NVIDIA H200 NVLを搭載したHPE Cray XD670サーバー
2024年秋から一般提供開始予定
・NVIDIA H200 NVL Tensor コア GPUを搭載したHPE ProLiant DL380a Gen12サーバー
2024年末にかけて提供開始予定
・HPE Private Cloud AI
■NVIDIAについて
1993年の創業以来、NVIDIA(https://www.nvidia.com/ja-jp/ ) (NASDAQ: NVDA) はアクセラレーテッド コンピューティングのパイオニアです。同社が 1999 年に発明した GPU は、PC ゲーム市場の成長を促進し、コンピューター グラフィックスを再定義して、現代の AI の時代に火をつけながら、産業用メタバースの創造を後押ししています。NVIDIA は現在、業界を再形成しているデータセンター規模の製品を提供するフルスタック コンピューティング企業です。詳細はhttps://nvidianews.nvidia.com/ でご確認ください。
■ヒューレット・パッカード エンタープライズ(HPE)について
Hewlett Packard Enterprise (NYSE: HPE) は、グローバルEdge-to-Cloudカンパニーとして、あらゆる場所に蓄積される全てのデータの価値を解き放ち、事業の成果を加速させる支援をします。人々の生活そして働き方の向上を目指し、数十年にわたって未来の再考とイノベーションを重ね、HPEは独自でありながら、オープンでインテリジェントなテクノロジーソリューションをas a Serviceで提供しています。クラウドサービス、コンピュート、HPC & AI、インテリジェントエッジ、ソフトウェア、ストレージを全てのクラウドとエッジにわたって一貫したエクスペリエンスで提供することで、お客様が新たなビジネスモデルを創出し、新たなエンゲージメントを展開し、運用のパフォーマンスを最大化できるようサポートしています。詳細はhttps://www.hpe.com でご確認ください。
本プレスリリースに含まれる特定の記述には、以下のような記述が含まれますが、これらに限定されるものではありません: NVIDIA AI Enterpriseソフトウェアプラットフォーム、NVIDIA NIM推論マイクロサービス、NVIDIA Spectrum-X Ethernetネットワーキングプラットフォーム、NVIDIA L40S、NVIDIA H100 NVL Tensor コア GPU、NVIDIA GH200 NVL2プラットフォーム、NVIDIA Quantum InfiniBand、およびNVIDIA Spectrum Ethernetスイッチを含む、NVIDIAの製品およびテクノロジーの利点、影響、性能、機能、および可用性; NVIDIAとHPEとのパートナーシップの拡大がもたらす利益と影響、HPEのサービスと提供物の特徴と利用可能性、NVIDIAの製品やテクノロジーを使用または採用するサードパーティとそのベネフィット; 生成AIとアクセラレーテッドコンピューティングは、あらゆる業界が産業革命に挑む中、抜本的な変革に拍車をかけていること、およびNVIDIA AIコンピューティングスタック全体とHPEのプライベートクラウドテクノロジーを組み合わせることで、企業のお客様や AIプロフェッショナルがAIの領域を拡大することは、リスクと不確実性を伴う将来の見通しに関する記述であり、予想と大きく異なる結果をもたらす可能性があります。実際の結果が大きく異なる可能性のある重要な要因には、以下が含まれます: 世界的な経済状況、製品の製造、組立、パッケージングおよびテストにおける NVIDIA のサードパーティへの依存、技術開発および競争の影響、新しい製品およびテクノロジーの開発または NVIDIA の既存の製品およびテクノロジーの強化、NVIDIA の製品またはパートナーとの連携製品の市場での受け入れ、設計、製造またはソフトウェアの欠陥; 消費者の嗜好や需要の変化、業界標準やインターフェースの変化、NVIDIA の製品やテクノロジーがシステムに統合された際の予期せぬ性能の低下、その他、NVIDIA が米国証券取引委員会 (SEC) に提出する年次報告書 (Form 10-K) や四半期報告書 (Form 10-Q) などの最新の報告書に随時詳述されている要因。SECに提出された報告書のコピーは、当社のウェブサイトに掲載されており、NVIDIAから無料で入手することができます。これらの将来の見通しに関する記述は、将来の業績を保証するものではなく、本書の日付現在においてのみ述べたものであり、法律で義務付けられている場合を除き、NVIDIAは、将来の出来事や状況を反映するためにこれらの将来の見通しに関する記述を更新する義務を負いません。
本リリースに記載されている製品や機能の多くは、様々な段階にあり、利用可能になった時点で提供される予定です。上記の記述は、コミットメント、約束、または法的義務を意図したものではなく、またそのように解釈されるべきでもありません。また、我々の製品について説明されている特徴や機能の開発、リリース、およびそのタイミングは変更される可能性があり、NVIDIAの単独の裁量に委ねられます。NVIDIAは、ここに記載された製品、特徴または機能の提供の不達または遅延について、いかなる責任も負いません。
© 2024 NVIDIA Corporation. All rights reserved. NVIDIA、NVIDIAロゴ、NVIDIA DGX BasePOD、NVIDIA OVXおよびNVIDIA Spectrum-Xは、米国およびその他の国におけるNVIDIA Corporationの商標および/または登録商標です。その他の会社名および製品名は、関連する各社の商標である場合があります。機能、価格、可用性、および仕様は予告なく変更されることがあります。
■プレスルーム
https://www.hpe.com/jp/ja/newsroom/press-hub.html
# # #
このプレスリリースで使用されているその他の製品名は識別の目的のためのみに使用されており、それぞれの企業の商標である場合があります。
【お客様からのお問い合わせ先】
カスタマー・インフォメーションセンター
TEL:0120-268-186 または03-5749-8279
ホームページ: http://www.hpe.com/jp/
© 2024 Hewlett Packard Enterprise Development LP
製品およびサービスに関する保証条件は製品およびサービスに付属する保証書に明示された保証条件のみによるものとし、本ニュースリリースの記載内容はいかなる追加保証をも行なうものではありません。当社は本レターの記載内容に技術上の誤り、欠落または本ニュースリリース作成にあたっての誤り、記載漏れがあった場合でも何ら責任を負わないものとします。
引用