新しい人工知能(AI)の研究アプローチは、統計的な視点からアルゴリズム学習の問題として、プロンプトベースのコンテキスト学習を提示します

新しいAIの研究アプローチは、統計的な視点からアルゴリズム学習の問題を取り扱い、プロンプトベースのコンテキスト学習を提案しています

インコンテキスト学習は、最近のパラダイムであり、大規模言語モデル(LLM)がテストインスタンスと数少ないトレーニング例を入力として観察し、パラメータの更新なしに直接出力をデコードする方法です。この暗黙のトレーニングは、通常のトレーニングとは異なり、例に基づいて重みが変更されることと対照的です。 

出典: https://arxiv.org/pdf/2301.07067.pdf

なぜインコンテキスト学習が有益であるのかという問題が生じます。2つの回帰タスクをモデル化したいと仮定できますが、制限は1つのモデルしか使用できないということです。ここでインコンテキスト学習は便利であり、タスクごとに回帰アルゴリズムを学習することができます。つまり、モデルは異なる入力のセットに対して別々に適合した回帰を使用します。 

論文 「Transformers as Algorithms: Generalization and Implicit Model Selection in In-context Learning」では、インコンテキスト学習の問題をアルゴリズム学習の問題として形式化しています。彼らは学習アルゴリズムとしてトランスフォーマーを使用し、推論時に別のターゲットアルゴリズムを実装するためにトレーニングして特化できると述べています。この論文では、トランスフォーマーを介したインコンテキスト学習の統計的側面を探求し、理論的予測を検証するために数値評価を行いました。

この研究では、2つのシナリオを調査しました。最初のシナリオでは、プロンプトはi.i.d(入力、ラベル)のペアのシーケンスで構成されています。もう一つのシナリオでは、シーケンスは動的システムの軌跡です(次の状態は前の状態に依存します:xm+1 = f(xm) + ノイズ)。  

では、このようなモデルをどのようにトレーニングするのでしょうか?

ICLのトレーニングフェーズでは、T個のタスクがデータ分布 {Dt}t=1Tに関連付けられます。各タスクに対して、対応する分布からトレーニングシーケンスStを独立してサンプリングします。その後、Stの部分シーケンスとシーケンスStから値xを渡して、xに対して予測を行います。ここではメタラーニングのフレームワークのようです。予測後、損失を最小化します。ICLトレーニングの背後にある直感は、対象のタスクに最適なアルゴリズムを探し出すことです。

次に、ICLの汎化境界を得るために、アルゴリズムの安定性の文献からいくつかの安定性条件を借用しました。ICLでは、プロンプトのトレーニング例はそのポイント以降のアルゴリズムの将来の決定に影響を与えます。そのため、入力に対していくつかの条件を課す必要がありました。詳細については、[論文]をお読みください。図7 は、学習アルゴリズム(ここではトランスフォーマー)の安定性を評価するために実施された実験の結果を示しています。

出典: https://arxiv.org/pdf/2301.07067.pdf

RMTL はマルチタスク学習におけるリスク(誤差)です。導出されたバウンドから得られるインサイトの一つは、ICLの一般化エラーはサンプルサイズnまたはタスクごとのシーケンスの数Mを増やすことによって排除されることです。同様の結果は、安定な動的システムにも拡張できます。

出典: https://arxiv.org/pdf/2301.07067.pdf
出典: https://arxiv.org/pdf/2301.07067.pdf

これらのバウンドの検証を数値評価で見てみましょう。

すべての実験には、GPT-2アーキテクチャが使用されており、12層、8つのアテンションヘッド、256次元の埋め込みを持っています。実験は回帰と線形ダイナミクスで行われます。

  1. 線形回帰:図2(a)と2(b)の両方で、インコンテキスト学習の結果(赤)は最小二乗法の結果(緑)を上回り、最適なリッジ/重み付きソリューション(黒点線)と完全に一致します。これは、トランスフォーマーの自動モデル選択能力によるタスクの事前学習を示す証拠となります。
  2. 部分的に観測された動的システム:図(2(c))と(6)では、インコンテキスト学習がほぼすべてのオーダーH=1,2,3,4(ここでHは入力状態列にスライドするウィンドウサイズで、モデルに入力を生成するためのものです)の最小二乗法の結果を上回ることが示されています。

結論として、実験結果が理論的な予測と一致することが成功裏に示されました。そして今後の研究の方向として、いくつかの興味深い問題を探求する価値があります。

(1) 提案されたバウンドはMTLリスクのためのものです。個々のタスクのバウンドをどのように制御できるでしょうか?

(2) 完全に観測された動的システムから得られる同様の結果は、強化学習のようなより一般的な動的システムにも拡張できるでしょうか?

(3) 観察から、転送リスクはMTLタスクとその複雑さにのみ依存し、モデルの複雑さには依存しないと結論付けられたので、この帰納バイアスを特徴付け、トランスフォーマーによって学習されるアルゴリズムの種類を調べることは興味深いでしょう。

We will continue to update VoAGI; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more

AI研究

「ADHDを持つ思春期の若者において、この深層学習研究はMRIスキャンの分析において独特な脳の変化を明らかにする:MRIスキャン分析の飛躍的な進歩」

画期的な開発により、研究者は人工知能(AI)の力を活用して、思春期の注意欠陥多動性障害(ADHD)の診断に内在する課題に取...

AI研究

UCバークレーの研究者たちは、「リングアテンション:トランスフォーマーのメモリ要件を削減するためのメモリ効率の良い人工知能アプローチ」という提案を行っています

ディープラーニングモデルアーキテクチャの一種であるTransformerは、多くの最先端のAIモデルの文脈で使われます。これらは人...

AI研究

「タンパク質設計の革命:ディープラーニングの改良により成功率が10倍に向上したこのAI研究」

タンパク質はほぼすべての疾患を統治するポリマー構造です。主な問題は、どのタンパク質がそれに対応するタンパク質ポリマー...

機械学習

このAI論文は、「Vary」という新しいアプローチを明らかにしています:高度な多言語認識タスクのための大規模なビジョン言語モデルの視覚語彙を拡張するためのアプローチ

大視覚言語モデル(LVLM)は、コンピュータビジョンと自然言語処理を組み合わせて、視覚的なコンテンツのテキストの説明を生...

データサイエンス

AI 幻覚の危険性:課題と影響の解明

「AIの幻覚に魅了される探求に乗り出しましょう ― その複雑な原因を解明し、結果をナビゲートし、重要な保護策を見つけましょ...

AI研究

ワビとトロント大学の研究者が、オートラベリングのためのオブジェクト軌跡を洗練するための効率的なトランスフォーマベースのAIモデル、LabelFormerを紹介しました

現代の自動運転システムでは、交通参加者を認識するためのオブジェクト検出器を訓練するために、広範な手動注釈付きデータセ...