HPCシステムズ、NVIDIA最新Blackwell搭載GPUサーバーとソフトウェアパッケージでローカルLLM導入を加速するターンキーソリューションを提供開始

最大級モデルも動作、研究開発を強力にサポート

HPCシステムズ株式会社(本社:東京都港区、代表取締役 小野 鉄平、以下 HPCシステムズ)は、NVIDIA HGX B200(最新Blackwell GPUアーキテクチャ)を8基搭載したハイエンドGPUサーバー「HPC5000-XGRAGPU8R10S-NVL」を中核とする、ローカルLLM(大規模言語モデル)環境の導入・運用をワンストップで実現するソリューションの提供を開始しました。

背景:高まるローカルLLM需要、大規模・高性能モデル、そしてセキュリティへの意識

ChatGPTの登場以来、企業や研究機関において、大規模言語モデル(LLM)を自社環境(ローカル)で運用する「ローカルLLM」の需要が急増しています。

ローカルLLMは、ローカル環境で動作するため、クラウド利用に伴う従量課金が発生しません。さらに、クラウド型のチャットAIで懸念されている情報漏洩やプライバシー上の問題もなく、企業や研究機関が機密性の高い情報を扱う場合に最適です。

特に近年、より高度なタスクに対応できる、パラメータ数が数百億~数千億規模の「高性能LLM」へのニーズが高まっています。これらの高性能LLMは、より自然な文章生成、高度な質問応答、複雑な推論などが可能であり、研究開発、コンテンツ生成、顧客対応など、幅広い分野での活用が期待されています。しかし、このような高性能LLMを動作させるには、大容量のGPUメモリを搭載した特殊なコンピュータが必要となり、導入・運用のハードルが高いという課題がありました。

クラウドLLMとローカルLLMの比較

本ソリューションの概要

1. 最新鋭のハードウェア:
o NVIDIAの最新Blackwellアーキテクチャに基づくHGX B200 GPUを8基搭載したGPUサーバー「HPC5000-XGRAGPU8R10S-NVL」を提供。
o 180GBのGPUメモリ×8基からなる合計1.4TB超の大容量メモリにより、現在最大級のLLMも動作可能。
– 例:Metaが開発したLlama 3の最大モデル(405Bパラメータ)の推論に必要なメモリは約810GBとされていますが、本製品はそれを大幅に上回る1.4TB超のメモリを搭載しており、余裕をもって対応可能。
– より大規模なモデルや、複数のモデルを同時に動かすことも可能であり、将来的なLLMの進化にも対応可能。
o サーバー本体だけでなく、電源ユニット(PDU)やラックもセットで提供。

2. ソフトウェアも完備:
o 主要なLLM関連ソフトウェア(Dify、OpenWebUI、Ollama、Xinferenceなど)をインストール済み。
o オプションで、AI開発を加速する「NVIDIA AI Enterprise(有償)」のセットアップにも対応。

3. 複数チームでの利用も簡単:
o 複数チームでのリソース共有やジョブ管理を効率化する「Slurm Workload Manager」の構築・運用をサポート。

4. 安心のサポート体制:
o 導入時の環境構築(ネットワーク設定、ストレージ設定など)から運用後の保守・技術サポートまで、HPCシステムズがトータルでサポート。
o システム構成のコンサルティングや現地調査も実施。
o HPCシステムズは、NVIDIAのパートナー認定制度「NPN」で最上位の「ELITE PARTNER」認定を取得しており、NVIDIA製品を熟知した専門家がサポート。

前世代からの進化:圧倒的な性能向上

今回発表の製品は、前世代のHGX H200と比較して、以下の点で飛躍的な性能向上を達成しています。

  • GPU性能: 2倍以上 (FP8精度で72PFLOPS)
  • メモリ容量: 約1.3倍 (1.44TBのHBM3eメモリ)
  • メモリ帯域幅: 約1.7倍 (8TB/s)
  • NV Switch GPU間帯域: 2倍(1.8TB/s)

本ソリューションのメリット

導入期間の短縮:環境構築の手間を省き、研究者はすぐに研究を開始可能。
専門知識不要:複雑なシステム構築・運用はシステムズが代行。
コスト削減:外部委託に比べ、導入・運用コストを抑制。
安定稼働:専門家によるサポートで、システムを安定運用。
最新技術の活用:の最新で、最先端の研究開発を支援。
高性能LLMに対応:最大級のを動作させ、より高度な研究開発を実現。
セキュリティ強化:情報漏洩リスクを排除し、機密情報を安全に保護。

今後の展開

HPCシステム株式会社は、本ソリューションを皮切りに、LLM分野の研究開発を支援する様々な製品・サービスを提供していく予定です。

ハードウェア構成例(抜粋)

コンポーネント仕様
GPUNVIDIA B200 SXM6 180GB ×8
GPUメモリ合計 1.44TB
CPUIntel Xeon 6-6960P (72core 2.7GHz 500W) ×2
システムメモリ3TB (128GB DDR5-6400 ECC Registered ×24)
ストレージOS:1.92TB U.2 NVMe ×2
内蔵ストレージ:3.84TB U.2 NVMe ×2
電源5250W 80PLUS TITANIUM 電源 ×6 (C19-C20 電源ケーブル 12 本同梱)

製品ページ:https://www.hpc.co.jp/product/hardware/hpc5000-xgragpu8r10s-nvl/

【HPC システムズについて】
HPC システムズは、ハイパフォーマンスコンピューティング(HPC)分野のニッチトップ企業です。
HPC 事業では、科学技術計算用高性能コンピュータとシミュレーションソフトウェア販売、科学技術計算やディープラーニング(深層学習)環境を構築するシステムインテグレーションサービス、シミュレーションソフトウェアプログラムの並列化・高速化サービス、計算化学ソフトウェア、マテリアルズ・インフォマティクスのプログラム開発・販売、受託計算サービス・科学技術研究開発支援、創薬研究開発や素材・材料研究開発分野向けサイエンスクラウドサービスをワンストップで提供しています。また、CTO事業では、顧客の用途、課題をヒアリングしながら、価格・性能・品質・高低温・防塵・防水・静電対策・過酷な環境に対する高耐久性など多種多様の対応が求められる、工場生産設備・製造装置・検査装置、制御機器や交通インフラ、自動運転、リテール店舗などのコントローラーとしての産業用コンピュータやエッジコンピュータの仕様提案から開発、生産、保守サポート、長期安定供給を実現しています。
社名 HPCシステムズ株式会社
所在地 東京都港区海岸 3 丁目 9 番 15 号 LOOP-X 8 階
設立 2006 年 7 月 3 日
資本金 2 億 3,024万円 (2024 年 12 月 31 日時点)
代表者 代表取締役 小野 鉄平

プレスリリースに関するお問い合わせ

フォーム関連
コーポレート / CSR お問い合わせ | HPCシステムズはすべての研究開発者に計算力を提供します。 HPCシステムズのコーポレート / CSR お問い合わせ用フォームです。

引用

プレスリリース・ニュースリリース...
HPCシステムズ、NVIDIA最新Blackwell搭載GPUサーバーとソフトウェアパッケージでローカルLLM導入を加速する... HPCシステムズ株式会社のプレスリリース(2025年2月20日 15時30分)HPCシステムズ、NVIDIA最新Blackwell搭載GPUサーバーとソフトウェアパッケージでローカルLLM導入を加速...
よかったらシェアしてね!
  • URLをコピーしました!
  • URLをコピーしました!

この記事を書いた人

AI・DX・LowCodeなど企業に役立つ情報を発信しています。