「二つの小さな言葉で偽の「事実」に立ち向かう」

Confronting false 'facts' with two small words.

インスピレーションを受けたジャーナリストたちによって、研究者たちは大規模言語モデルの回答を現実に根付かせる新しい技術を発見しました。 ¶ クレジット:ゲッティイメージズ

ジョンズ・ホプキンス大学(JHU)の研究者たちは、「〜によれば」という文言を大規模言語モデル(LLM)のクエリに含めることで、LLMによる幻覚を軽減する方法を開発しました。

この方法を使用すると、LLMは偽の回答を生成するのではなく、信頼できる情報源からの引用を行うように誘導されます。

研究者たちは、以前にJHUで開発されたツールであるデータポートレイトを使用して、LLMの回答がトレーニングデータセットに存在するかどうかを確認しました。これにより、膨大なテキストをダウンロードすることなく、確認作業が行われました。

「〜によれば」という根拠のプロンプトをクエリに組み込むことで、LLMのQUIP(引用情報の精度)スコアが5%〜15%向上したことが観察されました。

根拠のプロンプトは、全体的により詳細かつ正確な回答を生成しました。

JHUのダニエル・カシャビ氏は、「モデルが高品質や信頼性のある文書から記憶された文字列などの役立つコンテンツにアクセスできることが目標です」と述べています。

回答の正確性はトレーニングデータセットの品質に依存するため、この方法は信頼性のないウェブサイトからのデータをフィルタリングすることができます。ジョンズ・ホプキンス大学ハブの記事を全文で表示

We will continue to update VoAGI; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more

機械学習

「カスタムファインチューニングされた大規模言語モデルの安全性への深い潜入」

画期的な共同研究により、IBM Research、プリンストン大学、バージニア工科大学は大規模言語モデル(LLM)に関する重要な懸念...

AIニュース

「2023年のトップ50以上のAIコーディングアシスタントツール」

ChatGPT ChatGPTは、既存のコード参照に頼らずにコードを書くことができます。さらに、ユーザーのコードを効率的にデバッグす...

AIニュース

「Googleが人生のアドバイスを提供するAIアシスタントのテストを実施」

Googleは、ライフコーチとして機能するようにプログラムされた生成型人工知能技術のテストを行っています

AIニュース

Amazon SageMaker Model Cardの共有を利用して、モデルのガバナンスを向上させる

MLガバナンスの一環として利用可能なツールの1つは、Amazon SageMaker Model Cardsですこのツールは、モデルのライフサイクル...