「NVIDIA H100 Tensor Core GPUを使用した新しいMicrosoft Azure仮想マシンシリーズが一般利用可能になりました」

New Microsoft Azure virtual machine series utilizing NVIDIA H100 Tensor Core GPU is now generally available.

Microsoft Azureのユーザーは、最新のNVIDIAの高速計算技術を利用して、生成型AIアプリケーションのトレーニングと展開ができるようになりました。

本日から利用可能なMicrosoft Azure ND H100 v5 VMは、NVIDIA H100 Tensor Core GPUとNVIDIA Quantum-2 InfiniBandネットワーキングを使用しており、ブラウザからのクリック操作で生成型AI、高性能コンピューティング(HPC)などのアプリケーションをスケーリングできます。

全米の顧客に提供されるこの新しいインスタンスは、開発者や研究者が大規模な言語モデル(LLM)と高速計算を使用して新しい消費者およびビジネスのユースケースを見つけ出している時期に登場しました。

NVIDIA H100 GPUは、第4世代のTensor Cores、LLMの加速化に使用される新しいTransformer Engine、および各GPU間で900GB/secで通信できる最新のNVLink技術などのアーキテクチャイノベーションにより、スーパーコンピュータクラスのパフォーマンスを提供します。

また、NVIDIA Quantum-2 CX7 InfiniBandの採用により、3,200 Gbpsのノード間帯域幅でGPU間のシームレスなパフォーマンスが実現され、世界中の最高性能スーパーコンピュータと同等の能力を持ちます。

v5 VMでのスケーリング

ND H100 v5 VMは、ますます複雑なLLMやコンピュータビジョンモデルのトレーニングと推論に最適です。これらのニューラルネットワークは、質問応答、コード生成、オーディオ、ビデオ、画像生成、音声認識など、最も要求の厳しい計算集約型の生成型AIアプリケーションを推進します。

ND H100 v5 VMは、以前の世代のインスタンスと比較して、BLOOM 175BモデルなどのLLMにおいて推論において最大2倍の高速化を実現し、AIアプリケーションのさらなる最適化の可能性を示しています。

NVIDIAとAzure

Azure上のNVIDIA H100 Tensor Core GPUは、エンタープライズにAIトレーニングと推論のワークロードをスーパーチャージするパフォーマンス、柔軟性、スケーラビリティを提供します。この組み合わせにより、Azure Machine Learning for MLOpsと統合されたNVIDIA AI Enterpriseソフトウェアスイートで、本番のAI開発と展開が効率化され、業界標準のMLPerfベンチマークで最高のAIパフォーマンスが提供されます。

さらに、NVIDIA OmniverseプラットフォームをAzureに接続することで、NVIDIAとMicrosoftは数億人のMicrosoftエンタープライズユーザーに強力な産業デジタル化とAIスーパーコンピューティングのリソースを提供しています。

NVIDIA H100 GPUによるAzureでの新しいv5インスタンスについて詳しくは、以下のリンクをご覧ください。

We will continue to update VoAGI; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more