ハギングフェイスTGIを使用した大規模言語モデルの展開

大規模言語モデルの展開には、ハギングフェイスTGIを使用します

Amazon SageMakerを使用してLLMを効率的にホストおよびスケールする別の方法

Unsplashからの画像

大規模言語モデル(LLMs)は、新しいモデルがほぼ毎週リリースされることで人気が高まっています。これらのモデルの数が増えるにつれて、ホストする方法も増えています。以前の記事では、Amazon SageMaker内でDJL Servingを利用してLLMを効率的にホストする方法を探索しました。この記事では、HuggingFace Text Generation Inference(TGI)という最適化されたモデルサーバーおよびソリューションを探索します。

注意:AWS初心者の方は、以下のリンクでアカウントを作成してください。この記事では、SageMakerのデプロイメントの中級レベルの理解を前提としています。デプロイメント/推論について詳しく理解するために、この記事に従うことをおすすめします。

免責事項:私はAWSの機械学習アーキテクトであり、私の意見は私自身のものです。

なぜHuggingFace Text Generation Inferenceを選ぶのか?Amazon SageMakerとの連携はどのように機能するのか?

TGIは、HuggingFaceが作成したRust、Python、gRPCモデルサーバーであり、特定の大規模言語モデルをホストするために使用することができます。HuggingFaceはNLPの中心的なハブであり、特にLLMsに関しては多くの最適化が含まれています。以下にいくつかの最適化の例と、詳細なリストのドキュメントを示します。

  • 複数のGPUを跨いだ効率的なホスティングのためのテンソル並列処理
  • SSEによるトークンストリーミング
  • bitsandbytesによる量子化
  • ロジットの変更(温度、top-k、top-nなどのパラメーターの異なる設定)

このソリューションの大きな利点の1つは、使用の簡単さです。TGIは現時点で以下の最適化されたモデルアーキテクチャをサポートしており、TGIコンテナを直接デプロイすることができます。

  • BLOOM
  • FLAN-T5
  • Galactica
  • GPT-Neox
  • Llama
  • OPT
  • SantaCoder
  • Starcoder
  • Falcon 7B
  • Falcon 40B

We will continue to update VoAGI; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more

機械学習

「イギリスのテックフェスティバルが、クリエイティブ産業でAIを活用するスタートアップ企業を紹介する」

英国最大的技术节之一,企业和初创公司本周正展示他们最新的创新成果,举办研讨会,并庆祝位于英国西南部的技术生态系统的不...

機械学習

インフレクション-2はGoogleのPaLM-2を超える:AI言語モデルのブレークスルー

In a groundbreaking announcement, Inflection AI, the creators of the popular PI AI Personal Assistant, unveiled their...

AIニュース

「マイクロソフト、Windows上でのCortanaの終了を発表」

マイクロソフトは重要な動きとして、WindowsでのCortanaのサポート終了を宣言しました。この発表は、Windows Centralによって...

データサイエンス

合成データ生成のマスタリング:応用とベストプラクティス

この記事では、合成データ生成技術とそれらのさまざまなアプリケーションでの実装、および遵守すべきベストプラクティスにつ...

データサイエンス

「グーグルのAI研究によると、グラフデータのエンコーディングが言語モデルのパフォーマンスを複雑なタスクに向上させることが明らかになりました」

近年、大型言語モデル(LLM)の研究と応用は著しく進歩しています。これらの生成モデルは人工知能コミュニティを魅了し、様々...

データサイエンス

データの観察可能性:AI時代の信頼性

「GenAIにとって、データの可観測性は解決策、パイプラインの効率性、ストリーミングとベクターインフラストラクチャに優先す...