「二つの小さな言葉で偽の「事実」に立ち向かう」

Confronting false 'facts' with two small words.

インスピレーションを受けたジャーナリストたちによって、研究者たちは大規模言語モデルの回答を現実に根付かせる新しい技術を発見しました。 ¶ クレジット:ゲッティイメージズ

ジョンズ・ホプキンス大学(JHU)の研究者たちは、「〜によれば」という文言を大規模言語モデル(LLM)のクエリに含めることで、LLMによる幻覚を軽減する方法を開発しました。

この方法を使用すると、LLMは偽の回答を生成するのではなく、信頼できる情報源からの引用を行うように誘導されます。

研究者たちは、以前にJHUで開発されたツールであるデータポートレイトを使用して、LLMの回答がトレーニングデータセットに存在するかどうかを確認しました。これにより、膨大なテキストをダウンロードすることなく、確認作業が行われました。

「〜によれば」という根拠のプロンプトをクエリに組み込むことで、LLMのQUIP(引用情報の精度)スコアが5%〜15%向上したことが観察されました。

根拠のプロンプトは、全体的により詳細かつ正確な回答を生成しました。

JHUのダニエル・カシャビ氏は、「モデルが高品質や信頼性のある文書から記憶された文字列などの役立つコンテンツにアクセスできることが目標です」と述べています。

回答の正確性はトレーニングデータセットの品質に依存するため、この方法は信頼性のないウェブサイトからのデータをフィルタリングすることができます。ジョンズ・ホプキンス大学ハブの記事を全文で表示

We will continue to update VoAGI; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more

機械学習

「フラミンゴとDALL-Eはお互いを理解しているのか?イメージキャプションとテキストから画像生成モデルの相互共生を探る」

テキストとビジュアルのコンピュータ理解を向上させるマルチモーダル研究は、最近大きな進歩を遂げています。DALL-EやStable ...

機械学習

「Amazon SageMakerを使用してクラシカルなMLとLLMsを簡単にパッケージ化し、デプロイする方法 - パート1:PySDKの改善」

Amazon SageMakerは、開発者やデータサイエンティストが迅速かつ簡単に、いかなるスケールでも機械学習(ML)モデルを構築、...

AIニュース

エロン・マスクのxAIがOpenAIのChatGPTに挑戦します

ビジョン溢れる億万長者であるイーロン・マスクは、電気自動車、宇宙探査、ソーシャルメディアなどの事業を手掛ける人物で、...

AI研究

中国の研究者グループが開発したWebGLM:汎用言語モデル(GLM)に基づくWeb強化型質問応答システム

大規模言語モデル(LLM)には、GPT-3、PaLM、OPT、BLOOM、GLM-130Bなどが含まれます。これらのモデルは、言語に関してコンピ...