「リトリーバルの充実は長文の質問応答にどのように影響を与えるのか? このAIの研究は、リトリーバルの充実が言語モデルの長文での知識豊かなテキスト生成にどのような影響をもたらすかについて新しい示唆を提供します」
AI研究:リトリーバルの充実が言語モデルの長文での知識豊かなテキスト生成に与える影響に新たな示唆
LFQAは、どんな質問にも完全かつ詳細な回答を提供することを目指しています。大規模言語モデル(LLM)と推論時に提示される検索された文書内のパラメータ情報により、LFQAシステムは証拠文書のスパンを抽出するのではなく、パラグラフ形式で複雑な回答を構築することが可能です。近年の研究では、大規模LLMのLFQA能力の驚異的な優れた点と脆弱性が明らかになっています。最新の適切な情報を提供するために、検索が強力なアプローチとして提案されてきました。しかし、検索による拡張が製品の過程でLLMにどのような影響を与えるのかはまだ分かっておらず、常に予想どおりの効果があるわけではありません。
テキサス大学オースティン校の研究者は、検索がLFQAの回答生成にどのように影響を与えるかを調査しました。彼らの研究では、LMが一定のままで証拠文書が変化する場合とその逆の場合の2つのシミュレートされた研究コンテキストを提供しています。LFQAの品質を評価するのは困難なため、研究者は一貫性などの異なる回答属性に関連する表面的な指標(長さ、Perplexityなど)を数えることから始めました。検索拡張されたLFQAシステムの中で生成された回答を証拠文書に帰属させる能力は魅力的な特徴です。新たに取得した文レベルの帰属データを使用して、市販の帰属検出技術をテストしました。
表面的なパターンの検査から、チームは検索拡張がLMの生成を大きく変更することを結論づけました。提出される論文が関係ない場合でも、すべての影響が緩和されるわけではありません。例えば、生成された回答の長さは変わる場合があります。関連性のない文書とは異なり、文脈内の重要な証拠を提供する文書は、LMが予期しないフレーズをより多く生成する原因となります。同じ証拠文書のセットを使用していても、さまざまな基盤となるLMは検索拡張から対照的な影響を受けることがあります。彼らの新たに注釈付けされたデータセットは、帰属評価を測定するための基準として使用されます。研究結果は、事実ベースのQAでは帰属を特定したNLIモデルがLFQAの文脈でも優れたパフォーマンスを示し、正解率では人間の合意から15%離れているものの、偶然のレベルをはるかに上回ることを示しています。
この研究は、同じ文書のセットが与えられても、帰属の品質が基盤となるLM間で大きく異なる可能性があることを示しています。研究はまた、長文生成のための帰属パターンにも光を当てました。生成されたテキストは、文脈内の証拠文書の順序に従う傾向があります。文脈文書が複数の論文の連結である場合でも、最後の文は前の文よりも追跡が難しいです。全体として、この研究はLMが文脈証拠文書を活用して詳細な質問に答える方法を明らかにし、実践的な研究のアジェンダに向けて示唆を与えています。
We will continue to update VoAGI; if you have any questions or suggestions, please contact us!
Was this article helpful?
93 out of 132 found this helpful
Related articles
- 『冬-8Bに出会ってください:冴えたプラットフォームの背後にある非常にユニークなファンデーションモデル』
- 「Mini-DALLE3と出会おう:大規模な言語モデルによるテキストから画像へのインタラクティブアプローチ」
- 『Talent.com』において
- PyTorchEdgeはExecuTorchを発表しました:モバイルおよびエッジデバイス向けのオンデバイスでの推論をエンパワーメント
- 『BOSSと出会ってください:新しい環境で新しい課題を解決するためにエージェントをトレーニングする強化学習(RL)フレームワーク、LLMガイダンス』
- 「ニューラルネットワークにおける記憶の解読イメージ分類のベンチマークにおけるモデルサイズ、記憶、および一般化への深い探求」
- 「ロボット義足の足首は、自然な運動と安定性を向上させる」