Gadget Stream Online

NVIDAI、AI半導体のBlackwell GPUであるB200を約30,000ドルから40,000ドルで販売か

gds-master + AI

「gdsマスター」は出版業界で編集者のキャリアを経て、コンテンツ制作の仕事をしている記事制作の専門家です。記事はAIによる自動生成ではなく、「gdsマスター」の手によるキュレーションと編集、AIとコラボレーションした執筆によって制作・配信しています。

NVIDIA は3月16日、GTC2024のイベントにて超大規模な生成 AI トレーニングおよび推論ワークロード向けの次世代 AI スーパーコンピューター、NVIDIA GB200 Grace Blackwell Superchip 搭載 NVIDIA DGX SuperPODを発表しました。

前世代と比較してトレーニング性能は 3 倍、推論性能は 15 倍の最先端の性能というNVIDIA GB200 Grace Blackwell Superchip ですが、発表時には価格は発表されませんでした。これについてハードウェア情報サイトのtomshardwareが価格について紹介しています。

サイトによると、NvidiaはBlackwell GPUであるB200を約30,000ドルから40,000ドルで販売する予定であるとCEOのJensen Huang氏が述べたと報じています。しかし、Nvidiaは単体のアクセラレータではなく、データセンターの構築ブロック全体を販売することを好むため、これはおおよその価格です。Raymond Jamesのアナリストは、B200アクセラレータを製造するコストは約6,000ドルであると見積もっています。

NvidiaのBlackwellベースのB200アクセラレータは、192GBのHBM3Eメモリを搭載。この性能は、合計で2040億のトランジスタ(ダイあたり1040億)を搭載したデュアルチップセット設計によって実現されています。192GBのHBM3Eを搭載したNvidiaのデュアルダイGB200ソリューションは、80GBのメモリを持つ単一ダイGH100プロセッサよりもかなり高価になります。Raymond Jamesのアナリストによると、H100は1つあたり約3,100ドルで、B200は約6,000ドルであると推定されています。

NvidiaはGB200の開発に100億ドル以上を費やし、Nvidiaは現代のGPUアーキテクチャとデザインを作り上げています。Nvidiaのパートナーは昨年、これらのアクセラレータの需要が最高潮に達し、供給がTSMCの先進的なパッケージング能力によって制限されたため、H100を30,000ドルから40,000ドルで販売していました。

NvidiaのB200はデュアルダイソリューションであり、H100は単一ダイソリューションです。そのため、大規模言語モデルのトレーニングに向けたH100 NVLデュアルカード製品とB200の価格を比較することが理にかなっています。ただし、H100 NVLは小売で販売されているわけではなく、Nvidiaのコストを分析することはさらに複雑です。

これつまり、そもそもNvidiaのB200は単独で購入できるものではなく、8台のBlackwell GPUを搭載したDGX B200サーバーや、576台のB200 GPUを内蔵したDGX B200 SuperPODsを数百万ドルで販売するような形が取られる可能性が高いということです。実際に同社はB200カードやモジュールを自社のウェブサイトに掲載しておらず、DGB B200システムとDGX B200 SuperPODsのみを掲載しています。従って、NvidiaのB200 GPUの価格情報については、信頼できる情報源から得られたとはいえ、慎重に扱う必要があります。

NVIDIA DGX B200 の仕様

GPU8 基 の NVIDIA B200 Tensor コア GPU
GPU メモリ合計 1,440GB の GPU メモリ
パフォーマンス72 petaFLOPS の FP8 トレーニングと 144 petaFLOPS の FP4 推論
消費電力最大 14.3kW
CPU2 個の Intel® Xeon® Platinum 8570 プロセッサ
合計 112 コア、2.1 GHz (ベース)、
4 GHz (最大ブースト)
システム メモリ最大 4TB
ネットワーキング4 基の OSFP ポートで 8 基のシングルポートを提供する NVIDIA ConnectX-7 VPI最大 400Gb/秒の InfiniBand/Ethernet2 個のデュアルポート QSFP112 NVIDIA BlueField-3 DPU最大 400Gb/秒の InfiniBand/Ethernet
管理ネットワーク10Gb/秒のオンボード NIC (RJ45 搭載)
100Gb/秒のデュアルポート イーサネット NIC
ホスト BMC (ベースボード管理コントローラー、RJ45 搭載)
ストレージOS: 2 個の 1.9TB NVMe M.2
内部ストレージ: 8 個の 3.84TB NVMe U.2
ソフトウェアNVIDIA AI Enterprise: 最適化された AI ソフトウェア
NVIDIA Base Command™: オーケストレーション、スケジューリング、クラスター管理
DGX OS / Ubuntu: オペレーティング システム
nvidia

参照元:tomshardware nvidia

監修者のコメント:AIを用いてまとめました