Google AIは、Symbol Tuningを導入しました:入力-ラベルのマッピングを強調することで、コンテキスト内の学習を改善できるシンプルなファインチューニング方法

Google AI introduces Symbol Tuning a simple fine-tuning method that improves learning within context by emphasizing input-label mapping.

言語モデルは、自然言語のラベルが任意のシンボルに置き換えられたコンテキストで提供される入力-ラベルのペアに調整されています。特定のタスクにおいて、モデルは、推論とタスクの理解を実現するために、コンテキスト内の入力-ラベルのマッピングに依存する必要があります。Google AIチームは、新しい研究論文で、シンプルなファインチューニング手法を紹介しています。この手法は、コンテキスト内の入力-ラベルのマッピングに対して言語モデルの推論能力と学習能力を大幅に向上させます。これをシンボルチューニングと呼んでいます。研究チームは、22のNLPデータセットとさまざまな任意のシンボルをラベルとする実験を行い、複数のFlan-PaLモデルを使用しています。

シンボルチューニングにより、未知のコンテキスト内学習タスクにおけるベースラインモデルのパフォーマンスが向上します。これらのモデルは、意味的に関連のないラベルが自然言語のラベルに置き換えられたファインチューニングされた例示に基づいています。タスクを定義するためには、1つの単一のコンテキスト内例示を見るだけではタスクが明確ではありません。平均して、シンボルチューニングにより、Flan-cont-PaLM-62Bの11.1%のパフォーマンス向上が11の評価タスク全体で得られます。

シンボルチューニングされたモデルは、数値とアルゴリズムのデータではなく、自然言語のデータのみを含んでいます。これにより、これらのモデルはアルゴリズム的な推論タスクでより優れたパフォーマンスを発揮することができます。研究者は、モデルが非負の整数を含む入力と出力リストの間の変換関数を特定する必要がある、一連のリスト機能タスクで実験を行っています。モデルは、バイナリストリングの推論を使用して、入力を出力にマップするためのチューリングコンセプトを使用します。シンボルチューニングにより、Flan-PaLM-8Bのすべてのタスクにおける平均パフォーマンス向上は18.2%、Flan-PaLM-62Bは11.1%、Flan-cont-PaLM-62Bは15.5%、Flan-PaLM-540Bは3.6%です。

命令チューニングされたモデルと比較して、シンボルチューニングされたモデルは、コンテキストで提示された反転ラベルに従う能力が非常に優れています。命令チューニングされたモデルのパフォーマンスはランダムな予測に比べてかなり低く、予測を反転させることができません。一方、シンボルチューニングは、モデルにコンテキスト内で提示されたラベルを任意のシンボルとして考慮させます。これにより、モデルが反転したラベルに矛盾する事前知識を使用することが減少します。研究者は、シンボルチューニング後、Flan-PaLM-8Bのすべてのデータセットにおける平均パフォーマンス向上は26.5%、Flan-PaLM-62Bは33.7%、Flan-PaLM-540Bは34.0%であることを発見しました。

研究者は、小規模なデータセットを持つ任意のモデルに対して、シンボルチューニングに多くのファインチューニングステップは必要ではないと述べています。観察されたパフォーマンスは、初期の1kから2kのステップでパフォーマンスのピーク変化があった後、比較的一定のままです。パフォーマンスが比較的一定であるため、より大きなモデルはより多様なまたは大きなシンボルチューニングデータセットを必要とする可能性があると推測することができます。

初期のステップ後、シンボルチューニングデータの割合が高くなっても、モデルのパフォーマンスには影響しません。その結果、モデルはICL設定で成功します。重要なのは、トリビアルでないシンボルチューニングデータが使用されるかどうかです。チームは、より多様なタスクのセットからの入力によってモデルが新しいタスクへの能力を一般化することができるかどうか、より多様なシンボルチューニングデータの混合割合との強い相関関係を見つけました。

We will continue to update VoAGI; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more

AIニュース

「LLMsにおけるエンタープライズ知識グラフの役割」

紹介 大規模言語モデル(LLM)と生成AIは、人工知能と自然言語処理の革新的なブレークスルーを表します。彼らは人間の言語を...

機械学習

コンテンツクリエーターに必要不可欠なChatGPTプラグイン

「CodeGenius、StoryWeaver、およびFactFinderなどの必須のChatGPTプラグインを見つけて、コンテンツ作成プロセスを向上させ...

AI研究

「ハロー効果:AIがサンゴ礁保護に深く関与する」

珊瑚礁の急速な衰退が世界中で進んでいる中、ハワイマノア大学の研究者たちは、空から珊瑚礁の健康を監視するAIベースの調査...

人工知能

コンテンツクリエイター向けの20のクロードのプロンプト

「ここには、Claudeにコピー&ペーストできる20のプロンプトがありますこれを使用して、オーディエンスを10倍速く成長させて...

AIニュース

「Pixel 8 Pro」という初めてのAI搭載スマートフォンは、現在Gemini Nanoで稼働しており、さらにAIのアップデートがPixelポートフォリオにも導入されています」

ニューフィーチャードロップは、Pixelハードウェアへのアップデートをもたらしますさらに、Gemini Nanoは、Pixel 8 Proのデバ...

AIニュース

Googleがコンテンツを評価する方法:最新の更新

グーグルは、世界をリードする検索エンジンであり、人工知能(AI)技術の理解と適応において重要な進展を遂げています。最近...