大規模言語モデルにおけるより高い自己一貫性の達成
「自己一貫性をより高めるための大規模言語モデルの取り組み」
LLMを使用してテキストの正確性、精度、または関連性などの品質を評価する場合、一貫性が重要です。LLMが一貫性のない判断を示すと、評価は信頼性を失い不信頼になります。
LLMが議論の論理的な品質を評価するが、無効な議論を完全に妥当なものよりも論理的に優れていると評価すると、理性の裁定者として失敗します。モデル自体の論理的な一貫性の欠如により、評価は信用を失います。
このような不一致が現れると、LLMの異なるテキストの評価を比較する安定した基盤はありません。モデルが恣意的に自己矛盾する場合、不一致した評点に基づいて文が信頼性をもってランク付けされることはありません。
要するに、不一貫性は、評価が提供する比較の基盤を破壊します。LLMが評価基準を一貫して適用できない場合、テキストを評価するための使用は効果がなくなります。
したがって、点数化やテキストの評価に使用されるLLMにおいて、判断と評価の一貫性は必須です。評価の基盤となる安定した評価がなければ、LLMの出力を評価やスコアリングの形式として利用する際に比較の基盤は崩れます。
複数の解をサンプリングすることで、出力間の一貫性が品質と強く相関することが示されています。ただし、現在の一貫性の技術は閉形式の回答を抽出して比較することに頼っており、適用範囲が制約されています。本記事では、このような制約なしでの自己一貫性を向上させる方法と、現実世界の知識に基づいて意思決定を行う方法について探究します。
自己一貫性の必要性
急速な進歩にもかかわらず、最先端のモデルでは論理的な失敗や誤りが依然として信頼性のある推論を妨げています。複雑な多段階の解析や自由形式の生成では、モデルはしばしば自己に矛盾したり、根拠のない事実を創り出します。
これは、2つの主要な方法で現れます-一貫性のない自由形式の生成と、不連続な推論。以下に記載しています。
We will continue to update VoAGI; if you have any questions or suggestions, please contact us!
Was this article helpful?
93 out of 132 found this helpful
Related articles