新しい人工知能(AI)の研究アプローチは、統計的な視点からアルゴリズム学習の問題として、プロンプトベースのコンテキスト学習を提示します
新しいAIの研究アプローチは、統計的な視点からアルゴリズム学習の問題を取り扱い、プロンプトベースのコンテキスト学習を提案しています
インコンテキスト学習は、最近のパラダイムであり、大規模言語モデル(LLM)がテストインスタンスと数少ないトレーニング例を入力として観察し、パラメータの更新なしに直接出力をデコードする方法です。この暗黙のトレーニングは、通常のトレーニングとは異なり、例に基づいて重みが変更されることと対照的です。
なぜインコンテキスト学習が有益であるのかという問題が生じます。2つの回帰タスクをモデル化したいと仮定できますが、制限は1つのモデルしか使用できないということです。ここでインコンテキスト学習は便利であり、タスクごとに回帰アルゴリズムを学習することができます。つまり、モデルは異なる入力のセットに対して別々に適合した回帰を使用します。
論文 「Transformers as Algorithms: Generalization and Implicit Model Selection in In-context Learning」では、インコンテキスト学習の問題をアルゴリズム学習の問題として形式化しています。彼らは学習アルゴリズムとしてトランスフォーマーを使用し、推論時に別のターゲットアルゴリズムを実装するためにトレーニングして特化できると述べています。この論文では、トランスフォーマーを介したインコンテキスト学習の統計的側面を探求し、理論的予測を検証するために数値評価を行いました。
- Eleuther AI Research Groupが、Classifier-free Guidance(CFG)がLLMsとどのように組み合わされるかを実証しました
- ビンガムトン大学の研究者たちは、社会的な写真共有ネットワークでの自分たちの顔の管理を可能にするプライバシー向上の匿名化システム(私の顔、私の選択)を紹介しました
- CMUの研究者がFROMAGeを紹介:凍結された大規模言語モデル(LLM)を効率的に起動し、画像と交錯した自由形式のテキストを生成するAIモデル
この研究では、2つのシナリオを調査しました。最初のシナリオでは、プロンプトはi.i.d(入力、ラベル)のペアのシーケンスで構成されています。もう一つのシナリオでは、シーケンスは動的システムの軌跡です(次の状態は前の状態に依存します:xm+1 = f(xm) + ノイズ)。
では、このようなモデルをどのようにトレーニングするのでしょうか?
ICLのトレーニングフェーズでは、T個のタスクがデータ分布 {Dt}t=1Tに関連付けられます。各タスクに対して、対応する分布からトレーニングシーケンスStを独立してサンプリングします。その後、Stの部分シーケンスとシーケンスStから値xを渡して、xに対して予測を行います。ここではメタラーニングのフレームワークのようです。予測後、損失を最小化します。ICLトレーニングの背後にある直感は、対象のタスクに最適なアルゴリズムを探し出すことです。
次に、ICLの汎化境界を得るために、アルゴリズムの安定性の文献からいくつかの安定性条件を借用しました。ICLでは、プロンプトのトレーニング例はそのポイント以降のアルゴリズムの将来の決定に影響を与えます。そのため、入力に対していくつかの条件を課す必要がありました。詳細については、[論文]をお読みください。図7 は、学習アルゴリズム(ここではトランスフォーマー)の安定性を評価するために実施された実験の結果を示しています。
RMTL はマルチタスク学習におけるリスク(誤差)です。導出されたバウンドから得られるインサイトの一つは、ICLの一般化エラーはサンプルサイズnまたはタスクごとのシーケンスの数Mを増やすことによって排除されることです。同様の結果は、安定な動的システムにも拡張できます。
これらのバウンドの検証を数値評価で見てみましょう。
すべての実験には、GPT-2アーキテクチャが使用されており、12層、8つのアテンションヘッド、256次元の埋め込みを持っています。実験は回帰と線形ダイナミクスで行われます。
- 線形回帰:図2(a)と2(b)の両方で、インコンテキスト学習の結果(赤)は最小二乗法の結果(緑)を上回り、最適なリッジ/重み付きソリューション(黒点線)と完全に一致します。これは、トランスフォーマーの自動モデル選択能力によるタスクの事前学習を示す証拠となります。
- 部分的に観測された動的システム:図(2(c))と(6)では、インコンテキスト学習がほぼすべてのオーダーH=1,2,3,4(ここでHは入力状態列にスライドするウィンドウサイズで、モデルに入力を生成するためのものです)の最小二乗法の結果を上回ることが示されています。
結論として、実験結果が理論的な予測と一致することが成功裏に示されました。そして今後の研究の方向として、いくつかの興味深い問題を探求する価値があります。
(1) 提案されたバウンドはMTLリスクのためのものです。個々のタスクのバウンドをどのように制御できるでしょうか?
(2) 完全に観測された動的システムから得られる同様の結果は、強化学習のようなより一般的な動的システムにも拡張できるでしょうか?
(3) 観察から、転送リスクはMTLタスクとその複雑さにのみ依存し、モデルの複雑さには依存しないと結論付けられたので、この帰納バイアスを特徴付け、トランスフォーマーによって学習されるアルゴリズムの種類を調べることは興味深いでしょう。
We will continue to update VoAGI; if you have any questions or suggestions, please contact us!
Was this article helpful?
93 out of 132 found this helpful
Related articles
- OpenAIのChatGPTアプリがBingの統合機能を備えたブラウジング機能を導入しました
- ETH ZurichとMax Plankの研究者が提案するHOOD グラフニューラルネットワーク、マルチレベルメッセージパッシング、および教師なし学習を活用して現実的な衣類のダイナミクスを効率的に予測する新しいメソッド
- 研究者たちは、磁気のトリックを使って、量子コンピューティングの進歩を遂げました
- MITの研究者が、生成プロセスの改善のために「リスタートサンプリング」を導入
- 2023年にフォローすべきトップ10のAIインフルエンサー
- マイクロソフトの研究者がKOSMOS-2を紹介:視覚世界に根付くことができるマルチモーダルな大規模言語モデル
- コンピュータビジョンシステムは、画像認識と生成を結びつけたものです