「二つの小さな言葉で偽の「事実」に立ち向かう」

Confronting false 'facts' with two small words.

インスピレーションを受けたジャーナリストたちによって、研究者たちは大規模言語モデルの回答を現実に根付かせる新しい技術を発見しました。 ¶ クレジット:ゲッティイメージズ

ジョンズ・ホプキンス大学(JHU)の研究者たちは、「〜によれば」という文言を大規模言語モデル(LLM)のクエリに含めることで、LLMによる幻覚を軽減する方法を開発しました。

この方法を使用すると、LLMは偽の回答を生成するのではなく、信頼できる情報源からの引用を行うように誘導されます。

研究者たちは、以前にJHUで開発されたツールであるデータポートレイトを使用して、LLMの回答がトレーニングデータセットに存在するかどうかを確認しました。これにより、膨大なテキストをダウンロードすることなく、確認作業が行われました。

「〜によれば」という根拠のプロンプトをクエリに組み込むことで、LLMのQUIP(引用情報の精度)スコアが5%〜15%向上したことが観察されました。

根拠のプロンプトは、全体的により詳細かつ正確な回答を生成しました。

JHUのダニエル・カシャビ氏は、「モデルが高品質や信頼性のある文書から記憶された文字列などの役立つコンテンツにアクセスできることが目標です」と述べています。

回答の正確性はトレーニングデータセットの品質に依存するため、この方法は信頼性のないウェブサイトからのデータをフィルタリングすることができます。ジョンズ・ホプキンス大学ハブの記事を全文で表示

We will continue to update VoAGI; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more

AIニュース

「魔法の角度」グラフェンにおける磁気サプライズが明らかにされる

「磁石と超伝導体は普通は相性が悪いですが、新しい研究によると、『魔法角度』グラフェンは超伝導性と強磁性の両方を生み出...

機械学習

マシンラーニングにとっての「最悪のシナリオを防ぐ競争」

A.I.企業は、児童性的虐待物資の作成や流通を阻止する面で優位に立っています彼らは、ソーシャルメディア企業が失敗したこと...

機械学習

「xTuringに会ってください:たった3行のコードで自分自身の大規模言語モデル(LLM)を作成できるオープンソースツール」

特定のアプリケーションのための大規模な言語モデル(LLM)の実用的な実装は、現在のところ、ほとんどの個人にとって困難です...

AI研究

スタンフォード大学の研究者が、大規模言語モデル(LLM)における相互補完的および貢献的帰属に対する統一的なAIフレームワークを紹介します

大規模言語モデル(LLMs)は、人工知能(AI)の指数関数的に進化する分野での最新の進歩です。これらのモデルは、テキスト生...

人工知能

OpenChatのご紹介:カスタムチャットボットを数分で構築するための無料でシンプルなプラットフォーム

PDF、ウェブサイト、Notion、Confluence、Office 365などのリソースに接続して、チャットボットに任意のトピックを教えること...

機械学習

「Amazon Textractの新しいレイアウト機能は、一般的な目的と生成型のAIドキュメント処理タスクに効率をもたらします」

Amazon Textractは、任意のドキュメントや画像から自動的にテキスト、手書き、データを抽出する機械学習(ML)サービスですAn...