中国のこのAI研究は、AIの幻覚を探求する:大型言語モデルにおける幻視に深く潜る

『中国のこのAI研究は、AIの幻覚を追求する:大型言語モデルにおける幻視の深層探究』

大型言語モデルは最近、自然言語処理におけるパラダイムの変化をもたらし、以前には考えられなかった言語の創造、理解、推論の進歩をもたらしました。しかし、LLMの急速な発展と共に共起する懸念すべき傾向は、信憑性があるように思える情報を誘発し、事実の裏付けがないというものです。現在の幻覚の定義は、それらが与えられたソースコンテンツに対して不合理であるかまたは不忠実であると説明しており、以前の研究と一致しています。元の素材との不一致の程度に基づいて、これらの幻覚は内在的な幻覚と外在的な幻覚のカテゴリーにさらに分けられます。

タスク固有のバリアントが存在しますが、このカテゴリはいくつかの自然言語生成の仕事で共有されています。タスク固有のモデルと比較して、LLMはその優れた適応性と優れた性能のため、特にオープンドメインの応用において、幻覚を引き起こす可能性が高いです。LLM内では、幻覚は事実の不正確さに主眼を置いたより広範かつ包括的な概念であり、その幻覚タクソノミーはLLMの進化に合わせて関連性と柔軟性を向上させるために修正する必要があります。中国の哈爾滨工业大学と Huawei の研究チームがこの研究で幻想的なタクソノミーを再分類し、LLMの応用により専門化された基盤を提供しています。

彼らは幻覚を主に2つのカテゴリに分けています:忠実度幻覚と事実性幻覚。事実性の幻覚では、作成されたコンテンツと検証された現実世界の事実との違いに重点が置かれます;これらの違いは通常、でっち上げや事実の不一致として現れます。例えば、図1に示すように、月に初めて足を踏み入れた人物に関する質問に対して、モデルは1951年にチャールズ・リンドバーグがそうしたと自信を持って回答するでしょう。しかし、1969年のアポロ11号のミッションにより、ニール・アームストロングが初めて月に足を踏み入れました。一方、「信頼性の幻想」は生成されたコンテンツがユーザーの指示や入力の文脈からの不一致や離反を表す用語です。

図1に見られるように、ニュースストーリーを説明するように求められた際にイスラエルとハマスの対立に関する出来事の日付を間違ってしまい、2023年10月を2006年10月と誤解するモデルが生成しました。彼らはまた、事実性を検証可能なソースの存在に応じて、事実の不一致と事実のでっち上げの2つのサブカテゴリに細分化しています。彼らはユーザーの視点から不一致を解消することに重点を置き、論理的な、文脈的な、指示的な不一致に分類しています。これにより、現在のLLMの使用方法により一致するようになりました。これはNLGのタスクの文脈で調査されてきましたが、幻覚の根本的な原因は最新のLLMにとって特別な困難をもたらし、さらなる研究が必要です。

図1:LLMの幻覚を自然な形で示したイラスト

彼らの徹底的な調査は、LLMにおける幻覚の特定の原因に焦点を当てており、トレーニングやデータから推論フェーズまで、幅広い関連要素を扱っています。この枠組みの中で、不十分なソースや未活用のリソース、不十分なトレーニング戦略による事前トレーニングやアライメントの幻覚、および推論中の確率的デコーディング手法や不正確な表現に起因する幻覚など、データ関連の原因が考えられます。

さらに、彼らはLLMにおける幻覚を特定するための効率的な検出技術の詳細な説明と、LLMの幻覚の度合いを評価するためのベンチマークの包括的な概要を提供しています。また、幻覚の認識源を軽減するために設計された徹底的な戦術も提供しています。彼らは、この研究がLLMの分野をさらに発展させ、LLMの幻覚に関連する潜在的な利点と困難についての洞察を提供することを期待しています。この調査により、既存のLLMの欠点に対する理解が改善され、さらなる研究とより信頼性のある強力なLLMの作成に向けた重要な方向性も提供されます。

We will continue to update VoAGI; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more

機械学習

ディープラーニングが深く掘り下げる:AIがペルー砂漠で新しい大規模画像を公開

日本の山形大学の研究者たちは、ペルーのリマから南に車で7時間のナスカで、地球上に描かれた画像である地上絵の4つの未発見...

人工知能

「アメリカがAIセキュリティツール開発のコンテストを開催」

「DARPAは参加者に対して、ファンデッドトラックとオープントラックの2つのトラックを提供します」

機械学習

テンセントAIラボは、検索補完された言語モデルの堅牢性と信頼性を高めるために、Chain-of-Noting(CoN)を導入します

Tencent AI Labの研究者は、検索補完型の言語モデル(RALM)の信頼性に関する課題に取り組み、関連性のない情報を取得し、誤...

AI研究

ETHチューリッヒの研究者が、バイオミメティックな腱駆動式ファイブハンドを紹介:高次元自由度の3Dプリンタ対応設計で、器用な手の回転スキルを持つ

従来のモデルベースの制御手法では、コントローラーはロボットの動的モデルと直接的に対話します。最近の研究では、ロボット...

AI研究

中国からのニューエーアイ研究は、GLM-130Bを紹介しますこれは、13兆のパラメータを持つバイリンガル(英語と中国語)のプリトレーニング言語モデルです

最近、大規模言語モデル(LLM)のゼロショットおよびフューショットの能力は大幅に向上し、100Bパラメータ以上を持つモデルは...