「LLMに対する連鎖思考の促進」

Promoting LLM's chain of thought

LLMとの「推論」のための実用的でシンプルなアプローチ

(Matthew Lancaster氏による写真、Unsplashより)

大規模言語モデル(LLM)の成功は、大量のテキストコーパスを用いた事前学習(言語モデリング目的)を通じて、デコーダー専用のトランスフォーマーモデルをトレーニングできることに由来しています。十分に大きなモデルを事前学習することで、LLMは非常に能力のある少数の学習者になります。つまり、わずかな正しい出力の例を含むテキストのプロンプトを作成し、LLMに正しい答えを生成させることで、さまざまな問題(例:翻訳、文の分類、要約など)を解決できるということです。

LLMの能力にもかかわらず、これらのモデルが一貫して解決に苦しむ問題もあります。特に、推論問題(例:算術または常識的な推論)は非常に難しいものです。この問題を解決するための最初の試みでは、さまざまな推論問題の解決策と説明の教師付きデータセットを用いて、LLMのファインチューニングとタスク固有の検証モジュールを試しました[3, 4]。しかし、最近の研究では、少数の学習を活用することでより簡単な解決策を見つけることができることがわかりました。

「この論文の目標は、言語モデルに思考の連鎖を生成する能力を与えることです – 問題の最終答えに至る一貫した中間推論ステップの連鎖です。」- [1]より引用

特に、連鎖思考(CoT)プロンプティング[1]は、少数の学習を通じて推論ベースのタスクでのLLMのパフォーマンスを向上させる最近提案された技術です。一般的なプロンプティング技術と同様に、CoTプロンプティングは、いくつかの推論問題の解決策の例をLLMのプロンプトに挿入します。そして、それぞれの例には、問題を解決するための中間推論ステップの連鎖がペアで付属します。LLMは、推論問題を解決する際に類似の連鎖思考を生成することを(少数の学習を通じて)学習します。このようなアプローチは最小限のデータ(つまり、プロンプティングのためのわずかな例)を使用し、タスク固有のファインチューニングを必要とせず、特に大規模なモデルにおいて推論ベースのベンチマークのLLMのパフォーマンスを大幅に向上させます。

We will continue to update VoAGI; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more

人工知能

ジョナサン・ダムブロット、Cranium AIのCEO兼共同創設者- インタビューシリーズ

ジョナサン・ダムブロットは、Cranium AIのCEO兼共同創業者ですCranium AIは、サイバーセキュリティおよびデータサイエンスチ...

機械学習

3つの質問:大規模言語モデルについて、Jacob Andreasに聞く

CSAILの科学者は、最新の機械学習モデルを通じた自然言語処理の研究と、言語が他の種類の人工知能をどのように高めるかの調査...

人工知能

ムーバブルインクのCEO兼共同創設者であるヴィヴェク・シャルマ氏についてのインタビュー・シリーズ

ビヴェクは2010年にムーバブルインクを共同設立し、急速な成長を遂げながら、600人以上の従業員を擁し、世界有数の革新的なブ...

人工知能

「スノーケルAIのCEO兼共同創設者、アレックス・ラットナー - インタビューシリーズ」

アレックス・ラトナーは、スタンフォードAIラボを母体とする会社、Snorkel AIのCEO兼共同創設者ですSnorkel AIは、手作業のAI...

人工知能

「ナレ・ヴァンダニャン、Ntropyの共同創設者兼CEO- インタビューシリーズ」

Ntropyの共同創設者兼CEOであるナレ・ヴァンダニアンは、開発者が100ミリ秒未満で超人的な精度で金融取引を解析することを可...

人工知能

「ジャスティン・マクギル、Content at Scaleの創設者兼CEO - インタビューシリーズ」

ジャスティンは2008年以来、起業家、イノベーター、マーケターとして活動しています彼は15年以上にわたりSEOマーケティングを...