メタとUNC-Chapel Hillの研究者は、「Branch-Solve-Merge」という革新的なプログラムを導入しました:複雑な言語課題における大規模言語モデルの性能を向上させるプログラム

メタとUNC-Chapel Hillの研究者が革新的プログラム「Branch-Solve-Merge」を開発:複雑な言語課題における大規模言語モデルの性能を向上

「BRANCH-SOLVE-MERGE(BSM)」は、複雑な自然言語タスクにおける大規模な言語モデル(LLM)を向上させるためのプログラムです。BSMは、枝分かれ、解決、統合のモジュールを含み、サブタスクを計画し、解決し、組み合わせるためのものです。Vicuna、LLaMA-2-chat、GPT-4などのモデルに適用されることで、BSMは人間-LLMの一致を向上させ、バイアスを減らし、LLaMA-2-chatがほとんどのドメインでGPT-4を凌駕するか、追い越す能力を得ることができます。また、ストーリーの結びつきと満足感も制約ストーリー生成において増加します。

LLMは多様な言語タスクで優れていますが、複雑さには助けが必要です。BSMはLLMプログラムであり、各タスクをステップに分割し、異なるプロンプトでそれぞれをパラメータ化します。これは従来の順次的アプローチとは異なり、LLMの評価や制約付きテキスト生成などのタスクを対象にしており、並列分解を活用することで価値のある解決策を提供します。このプロセスは、全体的な評価の必要性に対応し、複雑なテキスト生成タスクにおけるLLMの評価のための貴重な解決策となります。

LLMはテキスト生成においては優れていますが、複雑な多目的タスクにおいては助けが必要です。UNCチャペルヒル大学とMeta研究者は、このような課題に取り組むためのBSMという手法を提案しています。BSMは枝分かれ、解決、統合のモジュールを使用してタスクを並列のサブタスクに分解します。LLMの応答評価と制約付きテキスト生成に適用することで、BSMはこれらのタスクの正確さ、一貫性および制約の満足度を向上させ、LLaMA-2-chat、Vicuna、GPT-4などのさまざまなLLMに利益をもたらします。BSMは、複雑な言語タスクにおけるLLMの性能向上に向けた、有望な解決策を提供します。

BSMは複雑な言語タスクを枝分かれ、解決、統合の3つのモジュールに分解します。LLMの応答評価と制約付きテキスト生成に適用することで、BSMは正確さと一貫性を向上させ、バイアスを減らします。人間-LLMの一致を26%まで向上させ、制約の満足度を12%向上させます。BSMは多機能で分解ベースのアプローチであり、さまざまなLLMに適用できるため、さまざまなタスクとスケールでのLLM評価の向上に有望です。

BSMはLLaMA-2-70B-chatのターン1およびターン2の質問に対して、LLM-人間の一致度を12ポイント向上させます。また、ポジションバイアスと長さバイアスでは34%のバイアスを削減します。BSMは、LLaMA-2のような弱いオープンソースモデルがGPT-4と競合できるようにします。BSMの性能はさまざまなドメインにわたり、さまざまなカテゴリでGPT-4と匹敵または迫る結果を残し、一致度を向上させ、バイアスを軽減します。また、数学などのクラスでLLaMA-2-70B-chatやGPT-4を上回り、基準ベースの質問の評価に優れ、一致度を向上させ、ポジションバイアスを軽減します。

BSMの手法は、LLMの評価とテキスト生成におけるつながり、計画、タスクの分解に関する重要な課題に取り組んでいます。BSMの枝分かれ、解決、統合のモジュールは、LLMの応答評価と制約付きテキスト生成を改善し、正確さ、一貫性、人間-LLMの一致度を向上させます。BSMはバイアスを軽減し、ストーリーの結びつきを高め、制約の満足度を向上させます。さまざまなLLMおよびドメインで効果的であり、さまざまなタスクでGPT-4を凌駕することさえあります。BSMは、さまざまなタスクにおいてLLMパフォーマンスを向上させるための多機能かつ有望な手法です。

この研究に関する論文をチェックしてください。この研究には研究者の皆さんによる全てのクレジットがあります。また、最新のAI研究ニュースや面白いAIプロジェクトなどを共有している32k+のML SubReddit40k+のFacebookコミュニティDiscordチャネル、およびメールニュースレターにも参加してみてください。

私たちの仕事が好きなら、ニュースレターもきっと気に入るでしょう。

また、TelegramWhatsAppでもご利用いただけます。

記事「リサーチャーのMetaとUNC-Chapel HillがBranch-Solve-Mergeを導入:複雑な言語タスクで大規模言語モデルのパフォーマンスを向上させる革命的なプログラム」は、MarkTechPostで最初に掲載されました

We will continue to update VoAGI; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more

AI研究

AIは人間過ぎるようになったのでしょうか?Google AIの研究者は、LLMsがツールのドキュメントだけでMLモデルやAPIを利用できるようになったことを発見しました!

人工知能が地球を支配しようとする現代において、大規模な言語モデルは人間の脳により近づいています。Googleの研究者たちは...

機械学習

「Perplexity(パープレキシティ)が2つの新たなオンラインLLMモデルを発表:『pplx-7b-online』と『pplx-70b-online』」

パープレキシティ(Perplexity)は、革新的なAIスタートアップとして、情報検索システムを変革する解決策を発表しました。こ...

人工知能

ダリー3がChatGPTの統合を持ってここに登場しました

「OpenAIの新しい画像生成モデルDALL·E 3がどのように限界を em>普及可能にするかを掘り下げてみて、画像生成がよりアクセ...

AI研究

「非営利研究者による人工知能(AI)の進展リスト」

去年遅くから今年にかけて、2023年はAIの人々がAIアプリケーションを作成するのに最適な時期であり、これは非営利の研究者に...

機械学習

予測分析がテクノロジーの意思決定を革命化している方法

「ビジネス環境での予測分析の仕組みを学びましょう」

AIニュース

「GoogleはニュースのためのAIを宣伝し、ジャーナリストは置き換えられないと主張する」

「テック巨人は、AIによるツールはニュース報道の重要な役割を果たすジャーナリストの代替とする意図はないと述べています」