N E W S

Nvidia、HBM3eを搭載した新しいGH200 Grace Hopper GPUを発表

最終更新日:

次世代Grace Hopper Superchipの改良版であるGH200 Grace Hopperは、HBM3eメモリを搭載。メモリ容量と帯域幅が向上し、AIモデルの実行やパフォーマンスの向上が可能に。

Nvidiaは、人工知能と高性能コンピューティング向けのHBM3eメモリを搭載した、次世代のGrace Hopper Superchipプラットフォームの改良版を発表しました。新しいGH200 Grace Hopperは、同じGrace CPUとGH100 HopperコンピュートGPUを搭載していますが、容量と帯域幅が向上したHBM3eメモリが特徴です。

新しいGH200 Grace Hopper Superchipは、72コアのGrace CPUと480 GBのECC LPDDR5Xメモリ、さらに141 GBのHBM3Eメモリを搭載しています。HBM3Eメモリは6つの24 GBスタックからなり、6,144ビットのメモリインターフェースを使用しています。物理的には144 GBのメモリが搭載されていますが、効率的な生産のために141 GBのメモリが利用可能です。

Nvidiaの現行GH200 Grace Hopper Superchipは96 GBのHBM3メモリを搭載しており、帯域幅は4 TB/s以下です。それに対して、新しいモデルはメモリの容量を約50%増やし、帯域幅を25%以上向上させています。これにより、新しいプラットフォームは元のバージョンよりも大きなAIモデルを実行し、明確なパフォーマンスの向上を提供(特にトレーニングにおいて重要)することが可能です。

Nvidiaによると、HBM3を搭載したGH200 Grace Hopperプラットフォームは現在生産中で来月から商業的に利用可能になるとのことです。一方、HBM3eを搭載したGH200 Grace Hopperプラットフォームは現在サンプリング中で、2024年第2四半期に利用可能になる予定です。Nvidiaは、新しいGH200 Grace Hopperが元のバージョンと同じGrace CPUとGH100 GPUシリコンを使用しているため、新たなリビジョンやステッピングの拡大は必要ないと強調しています。

Nvidiaは、HBM3を搭載した元のGH200と改良されたHBM3eを搭載したGH200の両方が市場で共存すると述べています。そのため、より高性能なメモリによって可能になる高性能により、後者はプレミアム価格で販売されます。

「創生型AIの急増に対応するために、データセンターは特化したニーズを持つ高速演算プラットフォームが必要です」とNvidiaのCEOであるJensen Huang氏は述べています。「新しいGH200 Grace Hopper Superchipプラットフォームは、非凡なメモリ技術と帯域幅によってスループットを改善し、妥協することなくGPUを接続してパフォーマンスを集約する能力、そしてデータセンター全体に容易に展開できるサーバーデザインを提供します」。

Nvidiaの次世代のGrace Hopper Superchipプラットフォームは、既存のサーバーデザインとの互換性があり、NvidiaのMGXサーバー仕様と完全に互換性があります。

ソース:a:1:{i:0;s:91:"https://www.tomshardware.com/news/nvidia-reveals-gh200-grace-hopper-gpu-with-141gb-of-hbm3e";} を一部要約

さてさて今回はHBM3eというとんでもないほど高い性能を誇るグラフィックボード用のメモリを搭載したNvidiaのGPUについてのニュースです。 OpenAIのGPTが世の中で注目されるようになってからというもの、人工知能業界が非常に盛り上がっていますね。

そして人工知能を生成するためには高性能なコンピューター(グラフィックボード)が必要になってきますので、最近のグラフィックボードに対する需要はかなり高まってきています。

それに応えるようにしてNvidiaが人工知能系の処理に特化したGPUを発表したということですね。


関連記事

    人気記事