「二つの小さな言葉で偽の「事実」に立ち向かう」
Confronting false 'facts' with two small words.
ジョンズ・ホプキンス大学(JHU)の研究者たちは、「〜によれば」という文言を大規模言語モデル(LLM)のクエリに含めることで、LLMによる幻覚を軽減する方法を開発しました。
この方法を使用すると、LLMは偽の回答を生成するのではなく、信頼できる情報源からの引用を行うように誘導されます。
研究者たちは、以前にJHUで開発されたツールであるデータポートレイトを使用して、LLMの回答がトレーニングデータセットに存在するかどうかを確認しました。これにより、膨大なテキストをダウンロードすることなく、確認作業が行われました。
「〜によれば」という根拠のプロンプトをクエリに組み込むことで、LLMのQUIP(引用情報の精度)スコアが5%〜15%向上したことが観察されました。
根拠のプロンプトは、全体的により詳細かつ正確な回答を生成しました。
JHUのダニエル・カシャビ氏は、「モデルが高品質や信頼性のある文書から記憶された文字列などの役立つコンテンツにアクセスできることが目標です」と述べています。
回答の正確性はトレーニングデータセットの品質に依存するため、この方法は信頼性のないウェブサイトからのデータをフィルタリングすることができます。ジョンズ・ホプキンス大学ハブの記事を全文で表示
We will continue to update VoAGI; if you have any questions or suggestions, please contact us!
Was this article helpful?
93 out of 132 found this helpful
Related articles
- 「生成AIとAmazon Kendraを使用して、エンタープライズスケールでキャプションの作成と画像の検索を自動化する」
- 「SageMaker Distributionは、Amazon SageMaker Studioで利用可能になりました」
- 「Amazon SageMakerを使用して、生成AIを使ってパーソナライズされたアバターを作成する」
- メタは、AIを活用した「パーソナ」と呼ばれる機能を自社サービスに統合する予定です
- 「MITのPhotoGuardは、AI画像操作に対抗するためにAIを使用します」
- 「アジア太平洋地域でAIスタートアップを創出する女性のための新たなファンド」
- 「デリー政府、提案された電子都市にAIハブを建設する計画」