オラクルクラウドインフラストラクチャは、新たなNVIDIA GPUアクセラレートされたコンピュートインスタンスを提供しています

オラクルクラウドは、NVIDIA GPUアクセラレートされたコンピュートインスタンスを提供しています

生成的AIと大規模な言語モデル(LLM)による画期的なイノベーションを実現するために、トレーニングと推論の計算上の要求が急速に増加しています。

これらの現代の生成的AIアプリケーションには、スピードと正確性を持つ大規模なワークロードを処理できる最新のインフラストラクチャが必要です。このニーズに応えるため、Oracle Cloud Infrastructureは、NVIDIA H100 Tensor Core GPUをOCI Computeで一般提供することを発表しました。また、NVIDIA L40S GPUも近日中に一般提供される予定です。

OCIでのNVIDIA H100 Tensor Core GPUインスタンス

NVIDIA H100 GPUを搭載したOCI Computeベアメタルインスタンスは、NVIDIA Hopperアーキテクチャを搭載しており、大規模なAIとハイパフォーマンスコンピューティングにおいて大きな飛躍を実現し、あらゆるワークロードに対して前例のないパフォーマンス、拡張性、柔軟性を提供します。

NVIDIA H100 GPUを使用する組織は、NVIDIA A100 Tensor Core GPUを使用する場合に比べて、AI推論のパフォーマンスが最大30倍向上し、AIトレーニングが4倍向上します。H100 GPUは、LLMのトレーニングや推論を実行するなど、リソース集約型の計算タスクに最適化されています。

BM.GPU.H100.8 OCI Computeシェイプには、80GBのHBM2 GPUメモリを搭載したNVIDIA H100 GPUが8つ含まれています。8つのGPU間の2つの分割帯域幅では、NVIDIA NVSwitchおよびNVLink 4.0テクノロジーを介して各GPUが他の7つのGPUすべてと直接通信することができます。このシェイプには、16のローカルNVMeドライブ(各3.84TB)と、112コアを持つ第4世代Intel Xeon CPUプロセッサ、および2TBのシステムメモリも含まれています。

要するに、このシェイプは組織の最も厳しいワークロードに最適化されています。

タイムラインとワークロードのサイズに応じて、OCI Superclusterを使用すると、高性能で超低遅延のネットワークを介して、単一のノードから数万のH100 GPUまでスケーリングすることができます。

OCIでのNVIDIA L40S GPUインスタンス

NVIDIA Ada Lovelaceアーキテクチャを基にしたNVIDIA L40S GPUは、データセンター向けの汎用GPUであり、LLMの推論とトレーニング、ビジュアルコンピューティング、ビデオアプリケーションにおける画期的なマルチワークロードの高速化を実現します。NVIDIA L40S GPUを搭載したOCI Computeベアメタルインスタンスは、今年後半に早期アクセスが可能となり、2024年初頭に一般提供される予定です。

これらのインスタンスは、NVIDIA H100およびA100 GPUインスタンスへの代替手段として提供され、小規模から中規模のAIワークロードだけでなく、グラフィックスやビデオコンピュートタスクにも対応します。NVIDIA L40S GPUは、生成的AIワークロードに対して最大20%のパフォーマンス向上とNVIDIA A100と比較して最大70%のAIモデルのファインチューニング改善を実現します。

BM.GPU.L40S.4 OCI Computeシェイプには、4つのNVIDIA L40S GPU、最新世代のIntel Xeon CPU(最大112コア)、1TBのシステムメモリ、キャッシュデータ用の15.36TBの低遅延NVMeローカルストレージ、および400GB/sのクラスターネットワーク帯域幅が含まれています。このインスタンスは、LLMのトレーニング、ファインチューニング、推論からNVIDIA Omniverseワークロード、産業のデジタル化、3Dグラフィックスとレンダリング、ビデオトランスコーディング、FP32 HPCまでの幅広いユースケースに対応するために作成されました。

NVIDIAとOCI:エンタープライズAI

OCIとNVIDIAのこの協力関係により、あらゆる規模の組織が最先端のNVIDIA H100とL40S GPUアクセラレートされたインフラストラクチャに参加し、生成的AI革命を実現することができます。

NVIDIA GPUアクセラレートされたインスタンスへのアクセスだけでは十分ではありません。OCI Compute上のNVIDIA GPUの最大の潜在能力を引き出すには、最適なソフトウェアレイヤーが必要です。NVIDIA AI Enterpriseは、オープンソースのコンテナとフレームワークを活用した、NVIDIA GPUインフラストラクチャに最適化されたエンタープライズグレードの高速化AIソフトウェアの開発と展開をスムーズに行うことができます。これにはサポートサービスの助けもあります。

詳細については、9月20日(水)のOracle Cloud WorldのAIパビリオンでNVIDIAに参加し、このOCIインスタンスに関するセッションに参加し、Oracle Cloud Infrastructure、OCI Compute、オラクルのAIアプローチ、NVIDIA AIプラットフォームのウェブページを訪れてください。

We will continue to update VoAGI; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more

AI研究

黄さんの法則に留意する:エンジニアたちがどのように速度向上を進めているかを示すビデオ

話の中で、NVIDIAのチーフサイエンティストであるビル・ダリー氏が、モーアの法則時代後のコンピュータパフォーマンスの提供...