「新しいNVIDIA H100、H200 Tensor Core GPUインスタンスがMicrosoft Azureに導入され、AIワークロードを高速化します」

「新たなNVIDIA H100、H200 Tensor Core GPUインスタンスがMicrosoft Azureに導入され、AIワークロードの高速化が実現」

ナビディアは、最新のAIインフラストラクチャーを構築するためにマイクロソフトとの協力を続けています。マイクロソフトは、要求の厳しいAIワークロードを加速するために、Microsoft Azureに追加のH100ベースの仮想マシンを導入しています。

本日のシアトルで開催されたIgniteカンファレンスで、マイクロソフトは、Azure向けの新しいNC H100 v5 VMシリーズを発表しました。これは、業界初のNVIDIA H100 NVL GPU搭載のクラウドインスタンスです。

このオファリングは、NVIDIA NVLinkを介して接続された2枚のPCIeベースのH100 GPUを組み合わせ、AIコンピュートのほぼ4ペタフロップと188GBの高速HBM3メモリを提供します。NVIDIA H100 NVL GPUは、前世代よりもGPT-3 175Bで最大12倍のパフォーマンスを発揮し、推論およびメインストリームトレーニングワークロードに最適です。

さらに、マイクロソフトは、来年にAzureフリートにNVIDIA H200 Tensor Core GPUを追加する計画を発表しました。これにより、大規模なモデルの推論に遅延を増やさずに対応することが可能となります。この新しいオファリングは、LLMsや生成AIモデルなど、最大のAIワークロードを加速するために特別に設計されています。

H200 GPUは、最新世代のHBM3eメモリを使用し、メモリ容量と帯域幅の両方で劇的な向上を実現しています。H100と比較して、この新しいGPUはHBM3eメモリを141GB提供し(1.8倍増加)、ピークメモリ帯域幅は4.8TB/s(1.4倍増加)です。

クラウドコンピューティングが機密化される

NVIDIAの提供する生成AIコンピューティングをAzureのお客様にさらに拡充することで、マイクロソフトは別のNVIDIAパワードインスタンス「NCC H100 v5」を発表しました。

NVIDIA H100 Tensor Core GPU搭載のこれらのAzure機密VMでは、H100 GPUの驚異的な高速化を利用しながら、データとアプリケーションの機密性と整合性を保護することができます。これらのGPU強化型の機密VMは、近日中にプライベートプレビューで提供される予定です。

NVIDIA H100 Tensor Core GPU搭載の機密VMについて詳しくは、ブログを読んで新しい機密VMの試用に登録してください。

AzureのNVIDIAパワードインスタンスについては、GPU VM情報ページで詳細をご確認ください。

We will continue to update VoAGI; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more