「変革を受け入れる:AWSとNVIDIAが創発的なAIとクラウドイノベーションを進める」
「革新を受け入れる:AWSとNVIDIAが創造的なAIとクラウドイノベーションを推進する」
Amazon Web ServicesとNVIDIAは、最新の生成AI技術を世界中の企業にもたらします。
AIとクラウドコンピューティングを結び付けることで、NVIDIAの創設者兼CEOであるジェンセン・ファングとAWSのCEOであるアダム・セリプスキーが火曜日にラスベガスのヴェネチアンエキスポセンターで開催されたAWS re:Invent 2023のステージで合流しました。
セリプスキーは、「AWSとNVIDIAのパートナーシップの拡大を発表できることに「興奮している」と述べ、高度なグラフィックス、機械学習、生成AIインフラストラクチャを提供する新しい製品を提供する予定です。
2社は、AWSが最新のNVIDIA GH200 NVL32 Grace Hopper Superchipと新しいマルチノードNVLinkテクノロジーを採用する最初のクラウドプロバイダであること、AWSがNVIDIA DGX CloudをAWSに導入していること、また、AWSがNVIDIAの人気のあるソフトウェアライブラリを一部統合していることを発表しました。
ファングは、NVIDIAの主要なライブラリがAWSと統合されていることを強調し、データ処理、量子コンピューティング、デジタルバイオロジーなどの領域に対応するNVIDIA AI EnterpriseからcuQuantum、BioNeMoまでの範囲が補完されていることを説明しました。
このパートナーシップにより、AWSは数百万人の開発者とこれらのライブラリを使用している約40,000社の企業にアクセスが開放されるとファングは述べ、AWSがNVIDIAの新しいL4、L40S、そしてまもなくH200 GPUも含めたクラウドインスタンスの提供を拡大していることを喜んでいると付け加えました。
その後、セリプスキーは、AWSデビューとなるNVIDIA GH200 Grace Hopper Superchipの導入を紹介し、更なる詳細についてファングに質問しました。
「グレース・ホッパー、つまりGH200は、2つの革命的なプロセッサをユニークな方法で接続します」とファングは説明しました。彼はGH200がNVIDIAのGrace Arm CPUとH200 GPUを、1テラバイト/秒もの凄まじい速度で接続するNVLinkと呼ばれるチップ間接続を使用していることを説明しました。
各プロセッサは、高性能HBMと効率的なLPDDR5Xメモリに直接アクセスできます。この構成により、各スーパーチップごとに4ペタフロップスの処理能力と600GBのメモリが得られます。
AWSとNVIDIAは、新しいNVLinkスイッチを使用して、各ラックに32個のGrace Hopper Superchipを接続します。32個のGH200 NVLink接続ノードは、単一のAmazon EC2インスタンスとなります。これらをAWS NitroおよびEFAネットワーキングと統合することで、顧客はGH200 NVL32インスタンスをスケールさせて数千ものGH200 Superchipsに接続することができます。
「AWS Nitroを使用すると、それは基本的に1つの巨大な仮想GPUインスタンスになります」とファングは述べました。
AWSの高いスケーラビリティを持つクラウドコンピューティングの専門知識とNVIDIAのGrace Hopperによるイノベーションの組み合わせにより、このプラットフォームは複雑な生成AIワークロードのための最高のパフォーマンスを提供するとファングは述べました。
「インフラのみでなく、ソフトウェア、サービス、その他のワークフローにも拡張されていることは素晴らしい」とセリプスキーは述べ、NVIDIA DGX Cloud on AWSを紹介しました。
このパートナーシップにより、GH200 Superchipsを搭載した最初のDGX Cloud AIスーパーコンピュータが実現し、AWSのクラウドインフラストラクチャとNVIDIAのAIの専門知識が示されます。
引き続き、ファングは、AWSでの新しいDGX Cloudスーパーコンピュータデザインである「プロジェクトセイバ(Ceiba)」が、NVIDIAの最新のAIスーパーコンピュータでもあり、独自のAI研究開発にも利用されると発表しました。
ファングは、プロジェクトセイバDGX Cloudクラスターが、65エクサフロップスのAI処理能力を実現するために16,384個のGH200 Superchipsを組み込んでいると述べました。
セイバは、世界初のGH200 NVL32 AIスーパーコンピュータであり、NVIDIA DGX Cloudの最新のAIスーパーコンピュータでもあるとファングは述べました。
ファングは、プロジェクトセイバAIスーパーコンピュータを「まったく信じられないほど」と形容し、最大の言語モデルのトレーニング時間を半分に短縮することが可能になると述べました。
NVIDIAのAIエンジニアリングチームは、この新しいDGX Cloudスーパーコンピュータを利用して、グラフィックス、LLMs、画像/映像/3D生成、デジタルバイオロジー、ロボティクス、自動運転車、地球2の気候予測など、さまざまな分野でAIの進歩に取り組むとファングは述べました。
「DGXはNVIDIAのクラウドAIファクトリーです」とホアン氏は述べました。彼はAIが今やコンピュータグラフィックスからデジタルバイオロジーモデル、ロボット工学、気候シミュレーションやモデリングに至るまで、NVIDIA自身の仕事において不可欠な要素であることを認識しています。
「DGX Cloudは、エンタープライズカスタマーと共にカスタムAIモデルを構築するための私たちのAIファクトリーでもあります」とホアン氏は述べました。「彼らがデータとドメインの専門知識をもたらしてくれれば、私たちはAI技術とインフラを提供します。」
さらに、ホアン氏は、AWSが来年初めにNVIDIA GH200 NVL、H200、L40S、L4 GPUをベースにしたAmazon EC2インスタンス4種類を市場に提供することも発表しました。
Selipsky氏は、GH200ベースのインスタンスとDGX CloudがAWSで来年利用可能になることを発表し、「AWSのYouTubeチャンネルでディスカッションとSelipsky氏の完全な基調講演をご覧いただけます。」と会話をまとめました。
We will continue to update VoAGI; if you have any questions or suggestions, please contact us!
Was this article helpful?
93 out of 132 found this helpful
Related articles