RayはNVIDIA AIとの協業により、開発者が製品向けのLLMを構築、調整、トレーニング、スケールアップするのを支援します

RayはNVIDIA AIとの協業により、製品向けのLLMの構築、調整、トレーニング、スケールアップを開発者が支援します

大規模言語モデルの開発は、NVIDIAとAnyscaleのコラボレーションにより、超音速の速さに達する予定です。

Anyscaleは、急速に成長しているスケーラブルなコンピューティングのためのオープンソースの統一コンピュートフレームワークを開発している会社であり、そのAnyscaleプラットフォームとRayオープンソースにNVIDIA AIを組み込むことを発表しました。また、新たに発表されたAnyscaleエンドポイントにも統合され、最も人気のあるオープンソースモデルを使用してアプリケーション開発者がLLMを容易に埋め込むことができるようになります。

これらの統合により、Code Llama、Falcon、Llama 2、SDXLなどのプライプライエタリなLLMからオープンモデルまで、生成型AIの開発と効率が大幅に向上し、生産型AIのセキュリティも強化されます。

開発者は、RayとオープンソースのNVIDIAソフトウェアをデプロイする柔軟性があります。または、Anyscaleプラットフォームで実行されるNVIDIA AI Enterpriseソフトウェアを選択して、完全にサポートされたセキュアな本番環境にデプロイすることもできます。

RayとAnyscaleプラットフォームは、知的なチャットボット、コーディングコパイロット、強力な検索および要約ツールを駆動する生成型AIアプリケーションを構築する開発者に広く使用されています。

NVIDIAとAnyscaleがスピード、コスト削減、効率を提供

生成型AIアプリケーションは、世界中の企業の注目を集めています。LLMの微調整、拡張、実行には、莫大な投資と専門知識が必要です。NVIDIAとAnyscaleは、さまざまなアプリケーションの統合により、生成型AIの開発と展開のコストと複雑さを低減するお手伝いができます。

先週発表された新しいオープンソースソフトウェア、NVIDIA TensorRT-LLMは、Anyscaleの提供をサポートし、LLMのパフォーマンスと効率を向上させ、コスト削減を実現します。NVIDIA AI Enterpriseソフトウェアプラットフォームでもサポートされていて、Tensor-RT LLMはNVIDIA H100 Tensor Core GPUで実行する場合、前世代のGPUに比べて最大8倍の高性能を提供する、複数のGPU上でモデルを並列に実行する自動スケーリングを実装しています。

TensorRT-LLMは、さまざまな人気のあるLLMモデルに対して、カスタムGPUカーネルと最適化を含み、NVIDIA H100 Tensor Core GPUトランスフォーマーエンジンで利用可能な新しいFP8数値形式も実装しており、使いやすくカスタマイズ可能なPythonインターフェースも提供しています。

NVIDIA Triton Inference Serverソフトウェアは、GPU、CPU、および他のプロセッサ上のクラウド、データセンター、エッジ、埋め込みデバイス間の推論をサポートします。この統合により、Ray開発者は、TensorRT、TensorFlow、PyTorch、ONNX、OpenVINO、Python、RAPIDS XGBoostなどのさまざまなディープラーニングおよび機械学習フレームワークからAIモデルをデプロイする際に効率を向上させることができます。

NVIDIA NeMoフレームワークを使用することで、Rayユーザーはビジネスデータを使用してLLMを簡単に微調整およびカスタマイズすることができ、個々のビジネスの独自の特徴を理解するLLMの開発に道を開くことができます。

NeMoは、どこでも生成型AIモデルを構築、カスタマイズ、展開するためのエンドツーエンドのクラウドネイティブフレームワークです。トレーニングおよび推論フレームワーク、ガードレールツールキット、データキュレーションツール、事前学習済みモデルなどを備えており、企業が生成型AIを採用するための簡単で費用効果の高い、迅速な方法を提供しています。

オープンソースまたは完全にサポートされた本番環境のオプション

RayオープンソースとAnyscaleプラットフォームを使用すると、開発者はオープンソースから本番環境での大規模AI展開まで、容易に移行することができます。

Anyscaleプラットフォームは、Rayを使用してスケーラブルなAIおよびPythonアプリケーションを簡単に構築、デプロイ、管理するための完全に管理されたエンタープライズレディの統一コンピューティングを提供し、顧客がAI製品を市場により速く、大幅に低コストで導入できるよう支援します。

RayオープンソースまたはサポートされたAnyscaleプラットフォームを使用するかにかかわらず、Anyscaleのコア機能はLLMのワークロードを簡単にオーケストレーションするのに役立ちます。NVIDIA AIの統合により、開発者はより効率的にAIを構築、トレーニング、チューニング、スケーリングすることができます。

RayとAnyscaleプラットフォームは、主要なクラウドの高速計算で実行され、ハイブリッドまたはマルチクラウド計算でも実行するオプションがあります。これにより、成功したLLMの展開に必要な計算リソースが増えるにつれて、開発者は簡単にスケールアップすることができます。

このコラボレーションにより、開発者はNVIDIA AI Workbenchでモデルの構築を開始し、本番環境への移行時にハイブリッドまたはマルチクラウドの高速計算環境で簡単にスケールアップすることができます。

NVIDIAとAnyscaleのAI統合は開発中であり、年末までに利用可能と予想されています。

開発者は、この統合に関する最新ニュースを入手するために登録し、NVIDIA AI Enterpriseの無料90日評価版を入手することができます。

詳細については、今週サンフランシスコで開催されるRay Summitに参加するか、以下のデモビデオをご覧ください。

NVIDIAのソフトウェアのロードマップに関するお知らせをご覧ください。

We will continue to update VoAGI; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more

人工知能

責任あるAI進歩のための政策アジェンダ:機会、責任、セキュリティ

社会がAIの恩恵を受けるためには、機会、責任、そして国家安全保障戦略が共有されたAIのアジェンダに組み込まれる必要があります

データサイエンス

データから真実を解読する:大きな言語モデルが真実をモデル化するためにパーソナを使用する方法

大型言語モデル(LLM)の導入により、人工知能のサブフィールドである自然言語処理(NLP)は大幅に進化し改善されています。...

機械学習

自然言語処理における転移学習:テキスト分類のための事前学習済みモデルの活用

この記事では、転移学習の概念について説明し、いくつかの人気のある事前学習済みモデルを探求し、テキスト分類に使用する方...

AIニュース

Googleは、AIを搭載したブラウザベースの開発者の楽園である「Project IDX」を発表しました

AIのイノベーションを推進し、その限界を打ち破るために、Googleは最新プロジェクト「Project IDX」を発表しました。この野心...

データサイエンス

「もし私たちが複雑過ぎるモデルを簡単に説明できるとしたらどうだろう?」

この記事は次の記事に基づいています:https//www.sciencedirect.com/science/article/abs/pii/S0377221723006598 これを読ん...

AIニュース

「OpenAIやLM Studioに頼らずにAutoGenを使用する方法」

イントロダクション OpenAIやLMスタジオに頼らずに、あなた自身のAIチームを作成する準備はできていますか?もはや銀行を荒ら...