メタとUNC-Chapel Hillの研究者は、「Branch-Solve-Merge」という革新的なプログラムを導入しました:複雑な言語課題における大規模言語モデルの性能を向上させるプログラム

メタとUNC-Chapel Hillの研究者が革新的プログラム「Branch-Solve-Merge」を開発:複雑な言語課題における大規模言語モデルの性能を向上

「BRANCH-SOLVE-MERGE(BSM)」は、複雑な自然言語タスクにおける大規模な言語モデル(LLM)を向上させるためのプログラムです。BSMは、枝分かれ、解決、統合のモジュールを含み、サブタスクを計画し、解決し、組み合わせるためのものです。Vicuna、LLaMA-2-chat、GPT-4などのモデルに適用されることで、BSMは人間-LLMの一致を向上させ、バイアスを減らし、LLaMA-2-chatがほとんどのドメインでGPT-4を凌駕するか、追い越す能力を得ることができます。また、ストーリーの結びつきと満足感も制約ストーリー生成において増加します。

LLMは多様な言語タスクで優れていますが、複雑さには助けが必要です。BSMはLLMプログラムであり、各タスクをステップに分割し、異なるプロンプトでそれぞれをパラメータ化します。これは従来の順次的アプローチとは異なり、LLMの評価や制約付きテキスト生成などのタスクを対象にしており、並列分解を活用することで価値のある解決策を提供します。このプロセスは、全体的な評価の必要性に対応し、複雑なテキスト生成タスクにおけるLLMの評価のための貴重な解決策となります。

LLMはテキスト生成においては優れていますが、複雑な多目的タスクにおいては助けが必要です。UNCチャペルヒル大学とMeta研究者は、このような課題に取り組むためのBSMという手法を提案しています。BSMは枝分かれ、解決、統合のモジュールを使用してタスクを並列のサブタスクに分解します。LLMの応答評価と制約付きテキスト生成に適用することで、BSMはこれらのタスクの正確さ、一貫性および制約の満足度を向上させ、LLaMA-2-chat、Vicuna、GPT-4などのさまざまなLLMに利益をもたらします。BSMは、複雑な言語タスクにおけるLLMの性能向上に向けた、有望な解決策を提供します。

BSMは複雑な言語タスクを枝分かれ、解決、統合の3つのモジュールに分解します。LLMの応答評価と制約付きテキスト生成に適用することで、BSMは正確さと一貫性を向上させ、バイアスを減らします。人間-LLMの一致を26%まで向上させ、制約の満足度を12%向上させます。BSMは多機能で分解ベースのアプローチであり、さまざまなLLMに適用できるため、さまざまなタスクとスケールでのLLM評価の向上に有望です。

BSMはLLaMA-2-70B-chatのターン1およびターン2の質問に対して、LLM-人間の一致度を12ポイント向上させます。また、ポジションバイアスと長さバイアスでは34%のバイアスを削減します。BSMは、LLaMA-2のような弱いオープンソースモデルがGPT-4と競合できるようにします。BSMの性能はさまざまなドメインにわたり、さまざまなカテゴリでGPT-4と匹敵または迫る結果を残し、一致度を向上させ、バイアスを軽減します。また、数学などのクラスでLLaMA-2-70B-chatやGPT-4を上回り、基準ベースの質問の評価に優れ、一致度を向上させ、ポジションバイアスを軽減します。

BSMの手法は、LLMの評価とテキスト生成におけるつながり、計画、タスクの分解に関する重要な課題に取り組んでいます。BSMの枝分かれ、解決、統合のモジュールは、LLMの応答評価と制約付きテキスト生成を改善し、正確さ、一貫性、人間-LLMの一致度を向上させます。BSMはバイアスを軽減し、ストーリーの結びつきを高め、制約の満足度を向上させます。さまざまなLLMおよびドメインで効果的であり、さまざまなタスクでGPT-4を凌駕することさえあります。BSMは、さまざまなタスクにおいてLLMパフォーマンスを向上させるための多機能かつ有望な手法です。

この研究に関する論文をチェックしてください。この研究には研究者の皆さんによる全てのクレジットがあります。また、最新のAI研究ニュースや面白いAIプロジェクトなどを共有している32k+のML SubReddit40k+のFacebookコミュニティDiscordチャネル、およびメールニュースレターにも参加してみてください。

私たちの仕事が好きなら、ニュースレターもきっと気に入るでしょう。

また、TelegramWhatsAppでもご利用いただけます。

記事「リサーチャーのMetaとUNC-Chapel HillがBranch-Solve-Mergeを導入:複雑な言語タスクで大規模言語モデルのパフォーマンスを向上させる革命的なプログラム」は、MarkTechPostで最初に掲載されました

We will continue to update VoAGI; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more

機械学習

「マルチモーダルAIの最新の進歩:(ChatGPT + DALLE 3)+(Google BARD + 拡張)など、さまざまなものがあります....」

マルチモーダルAIは、テキスト、画像、ビデオ、オーディオなどのさまざまなデータタイプ(モーダリティ)を組み合わせて、よ...

機械学習

Google AIはWeatherBench 2を紹介します:さまざまな天気予測モデルの評価と比較のための機械学習フレームワーク

機械学習(ML)は近年、天気予報においてますます使用されています。MLモデルが運用物理モデルと精度の面で競争できるように...

機械学習

マシンラーニングの革命:光フォトニックアクセラレータでの3D処理の活用による高度な並列処理とエッジコンピューティングの互換性の実現

技術の進歩と機械学習の台頭により、データのボリュームは増加しています。世界のデータ生産は2020年には64.2ゼタバイトに達...

AI研究

マイクロソフトリサーチとジョージア工科大学の研究者が、言語モデルの幻覚の統計的な境界を公表しました

最近、言語モデルで浮かび上がった主要な問題の一つは、言語モデル(LM)が存在しない記事タイトルへの言及を含む誤った情報...

機械学習

「Xenovaのテキスト読み上げクライアントツール:自然な音声合成を実現する頑強で柔軟なAIプラットフォーム」

テキスト読み上げ(TTS)技術の発展により、Xenovaが提供するテキスト読み上げクライアントなど、印象的な製品が開発されまし...

データサイエンス

常に学習中 AIがデータ漏洩を防ぐ方法

この記事では、データ侵害を防ぐために人工知能の利用について議論しています人工知能が悪意のある活動を検出し、データのパ...