「ゴリラ – API呼び出しの使用能力を向上させる大規模言語モデルの強化」 翻訳結果はこちらです

Enhancing Large Language Models to Improve API Invocation Capability - Translation Result is here.

Valentin Jorelによる写真、Unsplash

精密に調整されたLLaMAベースのモデルによるLLMsのAPI呼び出しの正確性と適応性の向上

はじめに

現在の大規模言語モデルは、その重みでキャプチャできる情報量に制限があります、そしてさらに、それらは限られた文脈しか持っていません。そのため、人々はこれらのLLMsの能力を向上させるための方法を考え始め、それらがAPI呼び出しを通じて外部リソースにアクセスできるようにしました。例えば、LLMには最近起こったイベントに関する情報がないかもしれませんが、ウィキペディアへの単純なAPI呼び出しを使って、そのイベントについて学び、質問に答えることができます。

(著者による画像)

多くの開発者は、LLMsがまさにそれを行うためのツールを構築しており、このようなツールを使うための簡単な方法は、Langchain🦜️🔗などのライブラリを活用することです。

Langchainでは、与えられたタスクを解決するために使用するツールを決定するLLMとしてのエージェントをインスタンス化することができます。ただし、残念ながら、Langchain内のツールの数には制限があります。

私たちが望むのは、何百万ものAPIにアクセスできるモデルであり、適切なタイミングで正しいAPIを使用できるようにすることです。

たとえば、このようなモデルの入力プロンプトは次のようなものです:

Torch Hubを使用して、録音された音声の話された言語をテキストに変換するAPIを見つけるのを手伝ってください。

このプロンプトを与えられた場合、モデルは何が問われているのか、どのAPIを使用するか、およびこのAPIを呼び出すために必要な入力は何かを理解する必要があります。

論文「Gorilla: Large Language Model Connected with Massive APIs」の著者は、この目的のためにAPIデータセットを作成しました。実際、論文では、モデルの能力を評価するために、包括的なHuggingFace、TorchHub、TensorHubのAPIからなるデータセットであるAPIBenchを紹介しています。

基本的なLlaMAモデルは、このAPIデータセットで調整されました。データセットには、これらのAPIの使用方法に関するAPIと指示が含まれています。自己生成の指示アプローチが使用されました。

We will continue to update VoAGI; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more

データサイエンス

「すべてのオンライン投稿は、AIの所有物です」とGoogleが発表

Googleは最近のプライバシーポリシーの更新において、その強力なAIツールでよく知られていることから注目される注目すべき変...

AI研究

「人間の活動認識におけるディープラーニング:このAI研究は、Raspberry PiとLSTMを使用した適応的なアプローチを導入し、位置に依存しない正確性を高めます」

ヒューマンアクティビティ認識(HAR)は、さまざまなセンサから収集したデータに基づいて、自動的に人間の活動を識別および分...

機械学習

AI導入の迷宮を進む

「過去5年間、複数の企業と協力し、彼らがAIソリューションを展開するのを支援してきましたその過程で、いくつかの共通のパタ...

データサイエンス

LangChain:メモリ容量でパフォーマンスを向上させる

私は以前にLangChainに関する記事をすでに公開しており、ライブラリーとその機能を紹介しました今回は、インテリジェントチャ...

AI研究

初心者のための2023年の機械学習論文の読み方

「私は数十の機械学習の論文を読み、論文の勉強方法がだいたい分かってきました まず最初に、特定の論文を読む目的を理解する...

データサイエンス

AdaTape 適応計算とダイナミックな読み書きを持つ基礎モデル

Googleの研究インターンであるFuzhao Xueと研究科学者であるMostafa Dehghaniによって投稿されました。 適応的計算とは、機械...