マイクロソフトが「オルカ2」をリリース:特製のトレーニング戦略で小さな言語モデルに高度な推論を導入

「マイクロソフトが「オルカ2」をリリース:特製のトレーニング戦略で小型言語モデルに洗練された推論能力を追加」

LLMs(Large Language Models)は、人間の言語に似た言語を理解し生成するために膨大なテキストデータでトレーニングを受けます。 GPT-3、GPT-4、およびPaLM-2はいくつかの例です。これらのモデルは、テキスト生成、会話の相互作用、および質問応答を含む複雑な言語タスクを実行します。これらはさまざまなドメインで使用され、チャットボット、コーディング、ウェブ検索、顧客サポート、コンテンツ制作などのユーザーエクスペリエンスを向上させています。

しかし、AIコミュニティが小型モデルの広大な領域に没頭するなかで、マイクロソフトはOrcaの次のバージョンであるOrca 2を紹介しました。これはコンパクトなAIモデルの能力を高めるために設計されています。 Orca 1は、詳細な説明、トレースの統合によって、BigBench HardやAGIEvalなどのベンチマークで伝統的な教示チューニングモデルを上回る性能を発揮します。 Orca 2はより洗練されたトレーニングシグナルの潜在能力にも取り組んでいます。

模倣学習は、小型言語モデルの改善における一般的なアプローチです。これらの小型モデルは、教師と同様の方法でコンテンツを生成できるとはいえ、推論力や理解力の向上が必要です。模倣学習にはいくつかの利点がありますが、特定の問題やモデルの能力に最適な解決策を使用できなくする欠点もあります。これらのモデルはしばしばより大きなモデルとの推論力や理解力のマッチングに助けが必要であり、その結果、その真の潜在能力が妨げられる場合があります。

単に模倣するのではなく、Orcaはさまざまな推論手法でモデルに指示を与えます。これには、ステップバイステップの処理、リコールして生成、リコール-推論-生成、および直接回答が含まれます。この目的は、特定のタスクの微妙なニュアンスに適した最も効果的な解決策戦略を識別する能力をモデルに伝えることです。

Orca 2のゼロショット推論能力は、より小さなニューラルネットワークの改善の可能性を示しています。マイクロソフトは、Orca 2に使用されるような特殊なトレーニング手法は新しい有用なアプリケーションを明らかにする可能性があると引き続き信じています。この手法は、これらのニューラルネットワークの展開の効果を向上させることを目指しています。

最も重要なことは、Orca 2はトレーニングフェーズで特定の行動を引き起こした初期の手がかりから保護されています。Orca 2は、革新的なプロンプトの削除技術を使用して慎重な推論者に変身します。この方法は、盲目的な模倣ではなく、より大きなモデルを行動の源として使用し、特定のタスクに最適なものを選択します。

研究者たちはOrca 2を包括的なベンチマークでテストしました。それによると、言語理解、常識的な推論、多段階の数学問題、読解、要約などに関連する他の同等のモデルよりも優れたパフォーマンスを発揮しました。例えば、ゼロショットの推論タスクでは、Orca 2-13Bは他の13Bモデルよりも25%以上の高い精度を達成し、70Bモデルと同等の性能を発揮します。

Orca 2は、小型言語モデルの進化における重要な進歩を示しています。従来の模倣学習からの脱却と、多様な推論手法に焦点を当てることによって、コンパクトなAIモデルのポテンシャルを引き出す新しいアプローチを示しています。

We will continue to update VoAGI; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more

人工知能

「Lab Sessions 実験的なAIの新しいコラボレーションのシリーズ」

Lab Sessionsは、アーティストから学者、科学者から学生まで、さまざまな人々との実験的なAIコラボレーションのシリーズです

AI研究

この人工知能の研究は、トランスフォーマーベースの大規模言語モデルが外部メモリを追加して計算的に普遍的であることを確認しています

トランスフォーマーベースのモデル(GPT-2やGPT-3など)によって達成された驚くべき結果は、研究コミュニティを大規模な言語...

AIニュース

「AIの成長する需要が世界的な水不足を引き起こす可能性がある」

人工知能は技術革命の原動力でありながら、静かに私たちの水資源を枯渇させています。OpenAIのChatGPTなどの高度なシステムを...

機械学習

PaLM-Eをご紹介します:新たな5620億パラメータの具現化された多モーダル言語モデルで、ロボットの操作計画やビジュアルQAなどのタスクを実行します

大容量の言語モデル(LLM)は、会話、ステップバイステップの推論、数学の問題解決、コードの作成など、さまざまな分野で強力...

人工知能

「両方の世界のベスト:人間の開発者とAIの協力者」

「これは、開発者を対象とした生成型AI生産性ツール(例:Github Copilot、ChatGPT、Amazon CodeWhisperer)が構造にどのよう...

AI研究

スタンフォード研究者がGLOWとIVESを使用して、分子ドッキングとリガンド結合位姿の予測を変革しています

ディープラーニングは、スコアリング関数の改善により、分子ドッキングの向上の可能性を持っています。現在のサンプリングプ...