ヴェクタラは、AI言語モデルの「幻覚」をベンチマーク化し、対処するための画期的なオープンソースモデルを立ち上げます

AI言語モデルの「幻覚」対処の画期的なオープンソースモデル『ヴェクタラ』発表

急速に進化するGenerative AI(GenAI)領域での責任追及を促進する前例のない取り組みとして、Vectaraはオープンソースの幻覚評価モデルを公開しました。これは、Large Language Models(LLMs)の事実に基づく正確性の測定を標準化するための重要な一歩であり、LLMsによる真実からの逸脱である「幻覚」の度合いを測定するための商業およびオープンソースのリソースを提供します。

この公開は、透明性を強化し、主要なGenAIツールの幻視リスクを定量化する客観的な手法を提供することを目的としており、責任あるAIの促進、誤情報の緩和、効果的な規制の基盤を築くための重要な措置です。幻視評価モデルは、提供された参考資料に基づくコンテンツの生成時にLLMsがどれだけ事実に基づいているかを評価するうえで、重要なツールとなるでしょう。

Vectaraの幻覚評価モデルは、Apache 2.0ライセンスに基づいてHugging Face上でアクセス可能であり、LLMsの事実的な完全性を明確に示しています。これ以前は、LLMベンダーがモデルの幻覚耐性に関する主張を検証する手段がほとんどありませんでした。Vectaraのモデルは、最新の幻覚研究の進歩を活用して、客観的にLLMの要約を評価します。

公開には、Vectaraのチームがオープンソースコミュニティと協力して維持しているLeaderboard(GenAIの正確さに対するFICOスコアに似たもの)が付属しています。これにより、LLMsは標準化された一連のプロンプトでのパフォーマンスに基づいてランク付けされ、ビジネスと開発者にとって有益な情報を提供します。

Leaderboardの結果からは、OpenAIのモデルが現在のパフォーマンスでリードし、Llama 2モデルが続いており、CohereとAnthropicも力強い結果を示しています。しかし、GoogleのPalmモデルのスコアは低くなっており、領域の持続的な進化と競争を反映しています。

Vectaraのモデルは幻覚への解決策ではありませんが、より安全かつ正確なGenAIの導入のための決定的なツールです。その導入は、米国大統領選挙などの重大なイベントに向けて、誤情報のリスクに関する関心が高まる時期に行われました。

幻覚評価モデルとLeaderboardは、業界および規制当局の待望の標準的な基準を提供することで、GenAIの規制にデータ駆動のアプローチを促進するうえで重要な役割を果たすことが期待されます。

We will continue to update VoAGI; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more

AIニュース

「AIがバービーの画像を作成し、人種差別の批判を受ける」

近日、バービーの映画に関する話題の中で、異なる国を表すAI生成のバービーの画像がインターネット上で話題となっています。...

データサイエンス

グリーンAI:AIの持続可能性を向上させるための方法とソリューション

もし、あなたがこの記事を開いたのであれば、おそらく現在の大規模言語モデル(LLM)の安全性と信頼性に関する現在の論争につ...

機械学習

大規模言語モデル(LLM)の微調整

この投稿では、事前学習されたLLMをファインチューニング(FT)する方法について説明しますまず、FTの重要な概念を紹介し、具...

機械学習

「これらの完全自動の深層学習モデルは、スマートフォンの統合を使用して、猫の苦痛指標スケール(FGS)を使用した痛み予測に使用できます」

人工知能(AI)の能力は、医療、金融、教育など、あらゆる業界に広がっています。医学や獣医学の分野では、適切な治療を施す...

人工知能

「Adversarial Autoencoders オートエンコーダーとGANの間のギャップを埋める」

イントロダクション 機械学習のダイナミックな領域において、2つの強力な技術を組み合わせることで、Adversarial Autoencoder...

機械学習

中国における大量生産自動運転の課題

自律走行は、世界でも最も困難な運転の一つが既に存在する中国では、特に難しい課題です主に3つの要因が関係しています:動的...