ハギングフェイスTGIを使用した大規模言語モデルの展開

大規模言語モデルの展開には、ハギングフェイスTGIを使用します

Amazon SageMakerを使用してLLMを効率的にホストおよびスケールする別の方法

Unsplashからの画像

大規模言語モデル(LLMs)は、新しいモデルがほぼ毎週リリースされることで人気が高まっています。これらのモデルの数が増えるにつれて、ホストする方法も増えています。以前の記事では、Amazon SageMaker内でDJL Servingを利用してLLMを効率的にホストする方法を探索しました。この記事では、HuggingFace Text Generation Inference(TGI)という最適化されたモデルサーバーおよびソリューションを探索します。

注意:AWS初心者の方は、以下のリンクでアカウントを作成してください。この記事では、SageMakerのデプロイメントの中級レベルの理解を前提としています。デプロイメント/推論について詳しく理解するために、この記事に従うことをおすすめします。

免責事項:私はAWSの機械学習アーキテクトであり、私の意見は私自身のものです。

なぜHuggingFace Text Generation Inferenceを選ぶのか?Amazon SageMakerとの連携はどのように機能するのか?

TGIは、HuggingFaceが作成したRust、Python、gRPCモデルサーバーであり、特定の大規模言語モデルをホストするために使用することができます。HuggingFaceはNLPの中心的なハブであり、特にLLMsに関しては多くの最適化が含まれています。以下にいくつかの最適化の例と、詳細なリストのドキュメントを示します。

  • 複数のGPUを跨いだ効率的なホスティングのためのテンソル並列処理
  • SSEによるトークンストリーミング
  • bitsandbytesによる量子化
  • ロジットの変更(温度、top-k、top-nなどのパラメーターの異なる設定)

このソリューションの大きな利点の1つは、使用の簡単さです。TGIは現時点で以下の最適化されたモデルアーキテクチャをサポートしており、TGIコンテナを直接デプロイすることができます。

  • BLOOM
  • FLAN-T5
  • Galactica
  • GPT-Neox
  • Llama
  • OPT
  • SantaCoder
  • Starcoder
  • Falcon 7B
  • Falcon 40B

We will continue to update VoAGI; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more

機械学習

自然言語処理:AIを通じて人間のコミュニケーションの力を解き放つ

この記事では、NLPの理解と進化について取り上げますAIがコミュニケーションの世界にどのように貢献できるかを学びましょう

AIニュース

「3つの医療機関が生成型AIを使用している方法」

「Med-PaLM 2および他の生成型AIソリューションを使用するGoogle Cloudのヘルスケア顧客を紹介します」

人工知能

トップ10の生成AI 3Dオブジェクトジェネレーター

高性能なAI 3Dオブジェクトジェネレータにより、3Dモデルの作成と可視化がより正確かつアクセスしやすく効率的になりました。...

機械学習

「物理学と流体力学に応用されたディープラーニング」

数値シミュレーションは、物理システムの挙動を理解するために何年も使用されてきました流体が構造物と相互作用する方法、応...

機械学習

ビジネスにおけるAIの潜在的なリスクの理解と軽減

「この技術を導入する際に遭遇する可能性のあるAIのリスクを学びましょうビジネスオーナーとして、そのようなリスクを避ける...

機械学習

Google AIがSpectronを導入:スペクトログラムを入力および出力として直接処理する、最初のスポークンランゲージAIモデルとしてエンドツーエンドでトレーニングされたものです

音声継続および質疑応答型のLLMsは、さまざまなタスクや産業に適用できる多才なツールであり、生産性の向上、ユーザーエクス...