「NVIDIAがAIおよびHPCワークロードに特化したH200 Tensor Core GPUを発表」

『NVIDIAからAIおよびHPCワークロード向けH200 Tensor Core GPUが発表され』

先週、NVIDIAはH200 Tensor Core GPUを発表しました。このGPUは、人工知能とハイパフォーマンスコンピューティング(HPC)ワークロードを強化するために設計された、世界最強のGPUとして新たなベンチマークを築くことを目指しています。

H200はNVIDIA Hopperアーキテクチャに基づいており、GPUにはHBM3eが搭載されており、驚異的な4.8テラバイト/秒で前代未聞の141ギガバイトのメモリを提供しています。これは、前身のNVIDIA H100 Tensor Core GPUのほぼ2倍の容量で、メモリ帯域幅も1.4倍に向上しています。

このように、メモリサイズと速度の大幅な向上によって、生成的AIや大規模な言語モデルの処理が加速され、HPCワークロードの科学計算が向上します。例えば、Llama2 70Bの推論では、1.9倍の高速化が実現され、GPT-3 175Bの推論では1.6倍の高速化となります。

メモリ帯域幅は、HPCアプリケーションにおいて重要な役割を果たし、データ転送の高速化と処理のボトルネックの軽減を可能にします。シミュレーション、科学研究、AIなどのメモリ集約型のタスクでは、H200の高いメモリ帯域幅により、従来のCPUに比べて結果までの時間が110倍も短縮されます。

H200は、複雑なLLM(Llama2など)の処理時に特に、H100 GPUと比べて最大2倍の推論速度を向上させます。これにより、H200はエネルギー効率を維持しつつ、H100と同じ電力プロファイル内で動作します。

これにより、企業は環境に優しい取り組みを維持し調整することができます。エネルギー消費は、より多くの企業が生成的AIへの移行を行う中で増加しており、NVIDIAはH200においてそれを念頭に置いているようです。

NVIDIAは、H200の導入によりGPUの能力に新たな基準を設定することを目指しています。GPU市場全体にどのような影響を与えるのかはまだわかりませんが、AIや科学のコミュニティは、最先端の研究においてAIの出力に依存し続けているため、これはますます重要になっています。

過去数年間、研究チームはモデルのパワーに頼って、新しいタンパク質の組み合わせを見つけたり、パーキンソン病を検出したりしています。このことがGPU市場全体にどのような影響を与えるかはまだわかりません。

We will continue to update VoAGI; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more