「ゴリラ – API呼び出しの使用能力を向上させる大規模言語モデルの強化」 翻訳結果はこちらです
Enhancing Large Language Models to Improve API Invocation Capability - Translation Result is here.
精密に調整されたLLaMAベースのモデルによるLLMsのAPI呼び出しの正確性と適応性の向上
はじめに
現在の大規模言語モデルは、その重みでキャプチャできる情報量に制限があります、そしてさらに、それらは限られた文脈しか持っていません。そのため、人々はこれらのLLMsの能力を向上させるための方法を考え始め、それらがAPI呼び出しを通じて外部リソースにアクセスできるようにしました。例えば、LLMには最近起こったイベントに関する情報がないかもしれませんが、ウィキペディアへの単純なAPI呼び出しを使って、そのイベントについて学び、質問に答えることができます。
多くの開発者は、LLMsがまさにそれを行うためのツールを構築しており、このようなツールを使うための簡単な方法は、Langchain🦜️🔗などのライブラリを活用することです。
Langchainでは、与えられたタスクを解決するために使用するツールを決定するLLMとしてのエージェントをインスタンス化することができます。ただし、残念ながら、Langchain内のツールの数には制限があります。
私たちが望むのは、何百万ものAPIにアクセスできるモデルであり、適切なタイミングで正しいAPIを使用できるようにすることです。
- このAI論文は、古典的なコンピュータによって生成される敵対的攻撃に対して、量子マシンラーニングモデルがより良く防御される可能性があることを示唆しています
- 「自己修正手法を通じて、大規模言語モデル(LLM)の強化」
- 「生成AIプロジェクトライフサイクル」
たとえば、このようなモデルの入力プロンプトは次のようなものです:
Torch Hubを使用して、録音された音声の話された言語をテキストに変換するAPIを見つけるのを手伝ってください。
このプロンプトを与えられた場合、モデルは何が問われているのか、どのAPIを使用するか、およびこのAPIを呼び出すために必要な入力は何かを理解する必要があります。
論文「Gorilla: Large Language Model Connected with Massive APIs」の著者は、この目的のためにAPIデータセットを作成しました。実際、論文では、モデルの能力を評価するために、包括的なHuggingFace、TorchHub、TensorHubのAPIからなるデータセットであるAPIBenchを紹介しています。
基本的なLlaMAモデルは、このAPIデータセットで調整されました。データセットには、これらのAPIの使用方法に関するAPIと指示が含まれています。自己生成の指示アプローチが使用されました。
We will continue to update VoAGI; if you have any questions or suggestions, please contact us!
Was this article helpful?
93 out of 132 found this helpful
Related articles