メタとUNC-Chapel Hillの研究者は、「Branch-Solve-Merge」という革新的なプログラムを導入しました:複雑な言語課題における大規模言語モデルの性能を向上させるプログラム

メタとUNC-Chapel Hillの研究者が革新的プログラム「Branch-Solve-Merge」を開発:複雑な言語課題における大規模言語モデルの性能を向上

「BRANCH-SOLVE-MERGE(BSM)」は、複雑な自然言語タスクにおける大規模な言語モデル(LLM)を向上させるためのプログラムです。BSMは、枝分かれ、解決、統合のモジュールを含み、サブタスクを計画し、解決し、組み合わせるためのものです。Vicuna、LLaMA-2-chat、GPT-4などのモデルに適用されることで、BSMは人間-LLMの一致を向上させ、バイアスを減らし、LLaMA-2-chatがほとんどのドメインでGPT-4を凌駕するか、追い越す能力を得ることができます。また、ストーリーの結びつきと満足感も制約ストーリー生成において増加します。

LLMは多様な言語タスクで優れていますが、複雑さには助けが必要です。BSMはLLMプログラムであり、各タスクをステップに分割し、異なるプロンプトでそれぞれをパラメータ化します。これは従来の順次的アプローチとは異なり、LLMの評価や制約付きテキスト生成などのタスクを対象にしており、並列分解を活用することで価値のある解決策を提供します。このプロセスは、全体的な評価の必要性に対応し、複雑なテキスト生成タスクにおけるLLMの評価のための貴重な解決策となります。

LLMはテキスト生成においては優れていますが、複雑な多目的タスクにおいては助けが必要です。UNCチャペルヒル大学とMeta研究者は、このような課題に取り組むためのBSMという手法を提案しています。BSMは枝分かれ、解決、統合のモジュールを使用してタスクを並列のサブタスクに分解します。LLMの応答評価と制約付きテキスト生成に適用することで、BSMはこれらのタスクの正確さ、一貫性および制約の満足度を向上させ、LLaMA-2-chat、Vicuna、GPT-4などのさまざまなLLMに利益をもたらします。BSMは、複雑な言語タスクにおけるLLMの性能向上に向けた、有望な解決策を提供します。

BSMは複雑な言語タスクを枝分かれ、解決、統合の3つのモジュールに分解します。LLMの応答評価と制約付きテキスト生成に適用することで、BSMは正確さと一貫性を向上させ、バイアスを減らします。人間-LLMの一致を26%まで向上させ、制約の満足度を12%向上させます。BSMは多機能で分解ベースのアプローチであり、さまざまなLLMに適用できるため、さまざまなタスクとスケールでのLLM評価の向上に有望です。

BSMはLLaMA-2-70B-chatのターン1およびターン2の質問に対して、LLM-人間の一致度を12ポイント向上させます。また、ポジションバイアスと長さバイアスでは34%のバイアスを削減します。BSMは、LLaMA-2のような弱いオープンソースモデルがGPT-4と競合できるようにします。BSMの性能はさまざまなドメインにわたり、さまざまなカテゴリでGPT-4と匹敵または迫る結果を残し、一致度を向上させ、バイアスを軽減します。また、数学などのクラスでLLaMA-2-70B-chatやGPT-4を上回り、基準ベースの質問の評価に優れ、一致度を向上させ、ポジションバイアスを軽減します。

BSMの手法は、LLMの評価とテキスト生成におけるつながり、計画、タスクの分解に関する重要な課題に取り組んでいます。BSMの枝分かれ、解決、統合のモジュールは、LLMの応答評価と制約付きテキスト生成を改善し、正確さ、一貫性、人間-LLMの一致度を向上させます。BSMはバイアスを軽減し、ストーリーの結びつきを高め、制約の満足度を向上させます。さまざまなLLMおよびドメインで効果的であり、さまざまなタスクでGPT-4を凌駕することさえあります。BSMは、さまざまなタスクにおいてLLMパフォーマンスを向上させるための多機能かつ有望な手法です。

この研究に関する論文をチェックしてください。この研究には研究者の皆さんによる全てのクレジットがあります。また、最新のAI研究ニュースや面白いAIプロジェクトなどを共有している32k+のML SubReddit40k+のFacebookコミュニティDiscordチャネル、およびメールニュースレターにも参加してみてください。

私たちの仕事が好きなら、ニュースレターもきっと気に入るでしょう。

また、TelegramWhatsAppでもご利用いただけます。

記事「リサーチャーのMetaとUNC-Chapel HillがBranch-Solve-Mergeを導入:複雑な言語タスクで大規模言語モデルのパフォーマンスを向上させる革命的なプログラム」は、MarkTechPostで最初に掲載されました

We will continue to update VoAGI; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more

データサイエンス

このAIニュースレターは、あなたが必要とするすべてです#65

今週のAIでは、AI規制に関する進展がありましたエロン・マスクやマーク・ザッカーバーグなどのテックリーダーが60人以上の上...

機械学習

「Hugging Face Transformersライブラリを解剖する」

これは、実践的に大規模言語モデル(LLM)を使用するシリーズの3番目の記事ですここでは、Hugging Face Transformersライブラ...

AI研究

CMUの研究者がMultiModal Graph Learning(MMGL)を導入「複数の多様な隣接情報から関係構造を持つ情報を抽出するための新たなAIフレームワーク」としています

多モーダルグラフ学習は、機械学習、グラフ理論、およびデータフュージョンの概念を組み合わせた多様なデータソースとその相...

AIニュース

「自動運転車の安全性について、ブリティッシュコロンビア州は意見が分かれている」

カナダのブリティッシュコロンビア大学の研究者による研究では、自動運転車に対して道路利用者が快適に感じるためには、段階...

機械学習

Amazon SageMaker Canvasを使用して、ノーコードの機械学習を活用して、公衆衛生の洞察をより迅速にキャプチャーしましょう

公衆衛生機関は、さまざまな種類の疾病、健康のトレンド、危険因子に関する豊富なデータを保有しています彼らのスタッフは、...

データサイエンス

「もし私たちが複雑過ぎるモデルを簡単に説明できるとしたらどうだろう?」

この記事は次の記事に基づいています:https//www.sciencedirect.com/science/article/abs/pii/S0377221723006598 これを読ん...