「グーグルのAI研究によると、グラフデータのエンコーディングが言語モデルのパフォーマンスを複雑なタスクに向上させることが明らかになりました」
「グーグルのAI研究によると、グラフデータのエンコーディングが言語モデルのパフォーマンスを複雑なタスクに向上させることが明らかに」
近年、大型言語モデル(LLM)の研究と応用は著しく進歩しています。これらの生成モデルは人工知能コミュニティを魅了し、様々な課題やモダリティに対して訓練された多くのモデルが最近提供されています。これらの発展により、LLMは人工一般知能(AGI)への重要なステップであるという共通の認識が生まれました。しかし、すべての利点にもかかわらず、LLMの現在の設計と実装には改善の余地があります。LLMの最も顕著な欠点の1つは、非構造化テキストに依存していることです。これにより、モデルが明らかな論理推論を見落としたり、誤った結論を想像したりすることが時折あります。
もう1つの欠点は、LLMが教示された時期に基づく固有の制約があるため、世界の進化に関する「新しい」知識を統合することが困難な場合があります。最も適応性の高い情報表現形式の1つは、グラフ構造化データであり、これは両方の問題に対する潜在的な解決策を提供します。しかし、この潜在的な解決策にもかかわらず、グラフとLLMの交差点での研究はほとんど行われていません。例えば、グラフデータベースとLLMは注目を集めているものの、グラフ構造化データの広範な応用に関してはさらなる研究が必要です。Wangらは最近、言語モデルに特化したグラフベンチマーキングチャレンジを作成することで、この問題を解決しようと試みました。
しかし、自然なグラフの課題の削除やアドレスされるグラフ構造のタイプの変化の欠如により、多くの未解決の問題が残っています。彼らの研究は、LLMのグラフ推論能力を評価する興味深い初めの取り組みを示しています。他の最近の研究では、グラフ構造化データの代わりにLLMを使用しようとしていますが、LLMの核心的な問題の一部を無視しています。Google Researchの研究者は、この論文でLLMがテキストとして読み取ることができるグラフ構造化データ上の推論について、初の徹底的な調査を行いました。彼らはグラフのプロンプト工学とグラフのエンコーディングを分析し、グラフ推論をさらに詳しく調査しました。
- 「ジュニアデータサイエンティストのための3つのキャリアの重要な決断」
- アップル M2 Max GPU vs Nvidia V100、P100、およびT4
- 「5つのシンプルなステップシリーズ:Python、SQL、Scikit-learn、PyTorch、Google Cloudをマスターする」
私たちは、さまざまなグラフのエンコーディング技術を実験することで、LLMが習得した表現をグラフの問題に利用することができます。プロンプト工学手法を研究する際には、質問を適切に設定してLLMに回答してもらうための最良のアプローチを選ぶことができます。彼らのテスト結果は、異なるプロンプトヒューリスティクスが最適なパフォーマンスを発揮するシナリオを特定することを目的としています。そのために、彼らはGraphQAというブランドニューのベンチマークを提供し、LLMの推論パフォーマンスを評価します。GraphQAは、以前のLLMを使用した研究よりもはるかに多様で現実的なグラフ構造を持つグラフを使用しています。
特に、彼らの研究は以下の点に貢献しました:
1. LLMの使用におけるグラフ構造のプロンプトアプローチの徹底的な調査。
2. LLMの使用のためのグラフをテキストとしてエンコードするためのベストプラクティスと洞察。
3. グラフ構造がLLMのプロンプトにどのように影響を与えるかを探索するために、コミュニティがより良い探求をすることができる新しいグラフベンチマークであるGraphQA。
We will continue to update VoAGI; if you have any questions or suggestions, please contact us!
Was this article helpful?
93 out of 132 found this helpful
Related articles