理解への足がかり:LLMとの解釈可能な継続的思考推論の足場としての知識グラフ

美とファッションの専門家による、知識グラフを使用した理解への道標

大規模言語モデル(LLM)は、膨大なテキストデータを学習しており、AIの革命を引き起こしました。彼らは短いテキストプロンプトから驚くほど説得力のある、統合的な言語を生成する能力を持っており、創造的な文章から対話型アシスタントまで、さまざまなドメインで新たな地平を切り開いています。

しかし、言語的な表現の習得だけでは真の知性にはなりません。LLMはまだ概念の意味理解や論理的な推論能力、状況理解や複雑な問題解決に必要な能力を持っていません。彼らの知識は、訓練コーパスから抽出された浅いパターンに基づくもので、現実世界に関する結びついた事実ではありません。

これらのモデルに対してよりオープンエンドで多面的な質問を提出すると、その制約がますます明らかになります。彼らは異なる文書から詳細を論理的に統合することができず、回答を導くために複数のステップにわたる推論を行うこともできません。

訓練データの分布とは異なるクエリが始まると、幻覚的なまたは相反する応答が現れ始めます。

これらの落とし穴に対処するために、AIコミュニティは取り込み拡張生成(RAG)フレームワークに焦点を移しています。これらのシステムは、言語モデルの言語力と現実世界の幻想ではなく、事実の文脈に基づく外部の知識源への迅速かつターゲットとしたアクセスを組み合わせます。

既存のアーキテクチャでは、テキストコーパスのパッセージのベクトル表現を介して意味的な類似性に基づいて補足情報を取得します。ただし、これは取得されたパッセージと実際のクエリの文脈との間の曖昧な関連性に苦しんでいます。パッセージを文脈のリンクのない単一の不透明なベクトルに縮約する際に、重要な詳細が失われます。論理的な推論を介して異なる事実を結びつける独自の物語を導くことは困難です。

これは、現実世界のエンティティとそれらの関係を包括する構造化知識源の組み込みが必要であることを強調しています。知識グラフは、相互に接続されたノードとエッジとして事実をエンコードすることによってこのニーズを満たします。しかし、言語モデルの自由形式の推論を構造的なグラフに根ざした方法で行うことは、インターフェース上の課題です。ニューラルアプローチと象徴的な表現の創造的な橋渡しは、今なお解決されていない課題となっています。

We will continue to update VoAGI; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more