「HuggingFace Transformers ツールとエージェント:ハンズオン」
HuggingFace Transformers Hands-on Workshop
Transformersバージョンv4.29.0は、ツールとエージェントのコンセプトを基に、transformersの上に自然言語APIを提供します。それらの使い方は?言語学習を使用例として探求しましょう!
エージェントとツールとは何ですか?
ここでの「エージェント」とは、大規模な言語モデルであり、特定の一連のツールにアクセスできるようにプロンプトされています。
LLMはコードの小さなサンプルを生成するのに適しているため、このAPIはそれを活用するためにLLMにコードのサンプルを与え、ツールのセットでタスクを実行するコードのサンプルを生成させます。
ツールは非常にシンプルです:名前と説明を持つ単一の関数です。その後、これらのツールの説明を使用してエージェントにプロンプトを表示します。プロンプトを通じて、クエリで要求された内容を実行するためにエージェントがツールをどのように活用するかを示します。[出典]
- 「xAI:イーロン・マスクの新しいAIベンチャーがウェブサイトの公開と共にそのミッションを明らかにする」
- 期待されるキャリブレーションエラー(ECE)- ステップバイステップの視覚的な説明
- エイリアシング:あなたのタイムシリーズはあなたに嘘をついています
ツールは何ができるのでしょうか?ツールは、特定の画像の質問に回答したり、長いテキストを1つまたは数文で要約したりすることができます。各ツールは非常に単純なタスクに焦点を当てるように設計されています。
実践:設定とエージェントの初期化
Google Colabノートブックの最初のセルを実行しましょう。ここではtransformersの最新バージョン(v4.29.0)を選択し、それからプロンプトに従ってHuggingFaceユーザーアクセストークンを入力します。
#@title Setuptransformers_version = "v4.29.0" #@param ["main", "v4.29.0"] {allow-input: true}print(f"transformersのバージョン{transformers_version}で全てをセットアップ中")!pip install huggingface_hub>=0.14.1 git+https://github.com/huggingface/transformers@$transformers_version -q diffusers accelerate datasets torch soundfile sentencepiece opencv-python openaiimport IPythonimport soundfile as sfdef play_audio(audio): sf.write("speech_converted.wav", audio.numpy(), samplerate=16000) return IPython.display.Audio("speech_converted.wav")from huggingface_hub import notebook_loginnotebook_login()
ログインが成功したら、エージェントを初期化することができます。エージェントは大規模な言語モデル(LLM)です。最良の結果を得るためにはOpenAIが使用されますが、StarCoderやOpenAssistantなどの完全にオープンソースのモデルも利用可能です。デモではStarCoderエージェントが使用されました。
We will continue to update VoAGI; if you have any questions or suggestions, please contact us!
Was this article helpful?
93 out of 132 found this helpful
Related articles