「NVIDIA H100 GPUがAWS Cloudで利用可能になりました」

NVIDIA H100 GPU now available on AWS Cloud

AWSユーザーは、AIトレーニングおよび推論の業界ベンチマークで示された最先端のパフォーマンスにアクセスできるようになりました。

クラウド大手は、NVIDIA H100 Tensor Core GPUを搭載した新しいAmazon EC2 P5インスタンスを正式に稼働させました。このサービスを使用すると、ブラウザからクリックするだけで生成型AI、ハイパフォーマンスコンピューティング(HPC)およびその他のアプリケーションをスケーリングできます。

このニュースは、AIのiPhone時代の続きです。開発者や研究者は、大規模な言語モデル(LLM)を使用して、ほぼ毎日新しいAIの応用を見つけ出しています。これらの新しいユースケースを市場に導入するには、高速計算の効率性が必要です。

NVIDIA H100 GPUは、第4世代のテンソルコア、LLMを加速するための新しいトランスフォーマーエンジン、および最新のNVLinkテクノロジーなど、アーキテクチャイノベーションによって、スーパーコンピューティングクラスのパフォーマンスを提供します。これにより、GPU同士が900GB/秒で通信できるようになります。

P5インスタンスでのスケーリング

Amazon EC2 P5インスタンスは、ますます複雑なLLMやコンピュータビジョンモデルのトレーニングおよび推論に最適です。これらのニューラルネットワークは、最も要求の厳しいおよび計算集約型の生成型AIアプリケーション、質問応答、コード生成、ビデオおよび画像生成、音声認識などを駆動します。

P5インスタンスは、クラウド内の高性能なコンピューティング、ネットワーキング、およびストレージから構成されるハイパースケールクラスタであるEC2 UltraClustersに展開できます。各EC2 UltraClusterは、複数のシステム上で最も複雑なAIトレーニングおよび分散HPCワークロードを実行できる強力なスーパーコンピュータです。

P5インスタンスは、AWS EFAによってパベタビットスケールのノンブロッキングネットワークを備えており、コンピュートノード間の高レベルの通信を必要とするスケールアプリケーションを実行できます。AWS EFAはAmazon EC2インスタンス用の3,200 Gbpsネットワークインターフェースです。

P5インスタンスでは、機械学習アプリケーションはNVIDIA Collective Communications Libraryを使用して最大20,000のH100 GPUを利用できます。

NVIDIA AI Enterpriseを使用することで、ユーザーはP5インスタンスを最大限に活用できます。これは、100以上のフレームワーク、事前学習済みモデル、AIワークフロー、AIインフラストラクチャのチューニングツールなどを含むフルスタックのソフトウェアスイートです。

AIアプリケーションの開発と展開を効率化するために設計されたNVIDIA AI Enterpriseは、高性能で安全なクラウドネイティブのAIソフトウェアプラットフォームの構築とメンテナンスの複雑さに対応します。AWS Marketplaceで利用でき、持続的なセキュリティモニタリング、定期的かつタイムリーな一般的な脆弱性と露出の修正、APIの安定性、エンタープライズサポート、およびNVIDIA AI専門家へのアクセスなどを提供します。

お客様の声

NVIDIAとAWSは、GPUアクセラレーションをクラウドにもたらすために12年以上にわたり協力してきました。この協力の最新の例である新しいP5インスタンスは、開発者が次世代のAIを創造するために必要な最先端のパフォーマンスを提供する大きな進歩を表しています。

以下は、既にお客様が言っていることの一部です:

Anthropicは、信頼性の高い、解釈可能で操縦可能なAIシステムを構築し、商業的な価値と公益のための多くの機会を生み出すことができます。

「現在の大規模な一般的なAIシステムは重要な利益をもたらす一方で、予測不可能で信頼性がなく、不透明な場合もあるため、私たちの目標はこれらの問題に進展し、人々が有用と考えるシステムを展開することです」とAnthropicの共同設立者であるTom Brownは述べています。「P5インスタンスは、P4dインスタンスよりも相当な価格パフォーマンスの利点を提供することを期待しており、次世代のLLMおよび関連製品を構築するために必要な大規模なスケールで利用できます。」

言語AIの先駆者であるCohereは、すべての開発者と企業が世界をリードする自然言語処理(NLP)技術を使用して製品を構築できるようにし、データをプライベートかつ安全に保ちます。

「Cohereは、すべての企業が言語AIの力を活用して情報を自然かつ直感的な方法で探索し、生成し、検索し、アクションを起こすことができるようにすることで、リードしています。それぞれの顧客に最適なデータ環境で複数のクラウドプラットフォームに展開できます」とCohereのCEOであるAidan Gomezは述べています。「NVIDIA H100搭載のAmazon EC2 P5インスタンスは、計算能力とCohereの最先端のLLMおよび生成型AIの機能を組み合わせて、ビジネスがより迅速に成長しスケーリングできる能力を解き放つでしょう。」

Hugging Faceは、優れた機械学習を民主化することを目指しています。

「機械学習の最も急速に成長しているオープンソースコミュニティとして、私たちはNLP、コンピュータビジョン、生物学、強化学習などの領域にわたる150,000以上の事前学習済みモデルと25,000以上のデータセットをプラットフォーム上で提供しています」とHugging FaceのCTO兼共同設立者であるJulien Chaumondは述べています。「私たちは、Amazon EC2 P5インスタンスとAmazon SageMakerを使用して、EFAを備えたUltraClusterで大規模にスケールした新しい基礎となるAIモデルを配信することを楽しみにしています。」

今日、世界中で4億5000万人以上がPinterestを利用しており、視覚的なインスピレーションプラットフォームとして、自分の好みに合わせた製品をショッピングしたり、アイデアを見つけたり、魅力的なクリエイターを発見したりしています。

「私たちは、プラットフォーム全体で深層学習を広範に活用しており、アップロードされる数十億枚の写真をラベル付けしたり、カテゴリ分けしたりするなど、さまざまな用途に使用しています。また、ビジュアル検索により、ユーザーはインスピレーションから行動に移ることができます」とPinterestの主任アーキテクトであるデビッド・チャイケン氏は述べています。「私たちは、Amazon EC2 P5インスタンスにNVIDIA H100 GPU、AWS EFA、UltraClustersを使用して、製品開発を加速し、顧客に新しい共感のあるAIベースの体験を提供することを楽しみにしています。」

NVIDIA H100によりパワーアップした新しいAWS P5インスタンスについて詳しくは、こちらをご覧ください。

We will continue to update VoAGI; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more