「DERAに会ってください:対話可能な解決エージェントによる大規模言語モデル補完を強化するためのAIフレームワーク」
AI Framework to Enhance Large-scale Language Model Completion with Interactive Resolution Agent Meet DERA
「大規模言語モデル」の深層学習は、入力に基づいて自然言語のコンテンツを予測するために開発されました。これらのモデルの使用は、言語モデリングの課題を超えて、自然言語のパフォーマンスを向上させました。LLM(大規模言語モデル)を活用したアプローチは、情報抽出、質問応答、要約などの医療タスクにおいて利益を示しています。プロンプトは、LLMを活用した技術で使用される自然言語の指示です。タスクの仕様、予測が遵守しなければならないルール、オプションでタスクの入力と出力のサンプルなどが、これらの指示セットに含まれています。
生成型言語モデルは、自然言語で与えられた指示に基づいて結果を生成する能力により、タスク固有のトレーニングの必要性をなくし、非専門家がこの技術を拡張することができるようになりました。多くの仕事は単一のキューとして表現できるかもしれませんが、さらなる研究では、タスクをより小さなタスクに分割することが、特に医療セクターにおいてタスクのパフォーマンスを向上させる可能性があることが示されています。彼らは、2つの重要な要素で構成される代替戦略をサポートしています。まず、最初の生成物を改善するための反復プロセスから始まります。これにより、生成がホリスティックに洗練されることができます。次に、各反復ごとに集中すべき領域を提案することで、ガイドが指示することができます。これにより、プロセスがより理解しやすくなります。
GPT-4の開発により、彼らは豊かで生き生きとした会話型VoAGI(自己意識を持つ人工一般知性)を手に入れました。Curai Healthの研究者たちは、Dialog-Enabled Resolving Agents(DERA)と呼ばれるものを提案しています。DERAは、対話解決を担当するエージェントが自然言語のタスクでのパフォーマンスを向上させる方法を調査するためのフレームワークです。彼らは、各対話エージェントを特定の役割に割り当てることで、彼らが仕事の特定の側面に焦点を当てることができ、パートナーエージェントが全体の目標との整合性を保つことができると主張しています。研究者エージェントは、問題に関連するデータを求め、他のエージェントが集中するべきトピックを提案します。
- マルチモーダル言語モデル:人工知能(AI)の未来
- マイクロソフトAIは、高度なマルチモーダルな推論と行動のためにChatGPTとビジョンエキスパートを組み合わせたシステムパラダイム「MM-REACT」を提案しています
- 「自動推論とツールの利用(ART)を紹介します:凍結された大規模言語モデル(LLM)を使用して、推論プログラムの中間段階を迅速に生成するフレームワーク」
彼らは、自然言語のタスクのパフォーマンスを向上させるために、エージェント間の相互作用のフレームワークであるDERAを提供しています。彼らは、DERAを3つの異なるカテゴリの臨床タスクで評価しています。それぞれに答えるために、さまざまなテキストの入力と専門知識のレベルが必要です。医療対話の要約の課題は、事実に基づき、幻覚や省略がない医師と患者の対話の要約を提供することを目指しています。ケアプランの作成には多くの情報が必要で、臨床的な意思決定支援に役立つ長い出力があります。デシダーエージェントの役割は、このデータに応じて応答し、出力の最終的な行動方針を選択することができます。
この研究にはさまざまな解決策があり、目標は事実に基づいて正確で関連性のある資料を作成することです。医学に関する質問に答えることは、知識思考を必要とするオープンエンドの課題であり、一つの解決策しかない場合があります。彼らは、このより困難な環境で研究するために2つの質問応答データセットを使用しています。人間の注釈付き評価の両方で、ケアプラン作成と医療対話の要約の課題においてDERAがベースのGPT-4よりも優れたパフォーマンスを発揮することを発見しました。定量的な分析によると、DERAは多くの不正確な医療対話の要約を正確に修正することができます。
一方、質問応答においては、GPT-4とDERAのパフォーマンスにほとんど改善が見られませんでした。彼らの理論によれば、この手法は、多くの微細な特徴を持つ長文生成の問題に適しています。彼らは、米国医師免許試験の練習問題からなる新しいオープンエンドの医学的な質問応答の仕事を発表するために協力します。これにより、質問応答システムのモデリングと評価に関する新しい研究が可能になります。推論の連鎖やその他のタスク固有の手法は、連鎖戦略の例です。
連鎖思考の技術は、モデルが専門家のように問題に取り組むことを促し、いくつかのタスクを改善します。これらの手法のすべては、基本的な言語モデルから適切な生成を引き出すための努力です。具体的な目的で作成された特定のプロンプトの事前定義セットに限定されているという制約は、この手法の基本的な制約です。彼らはこの方向に良い一歩を踏み出しましたが、現実の状況に適用することはまだ非常に困難です。
We will continue to update VoAGI; if you have any questions or suggestions, please contact us!
Was this article helpful?
93 out of 132 found this helpful
Related articles
- Concrete MLと出会ってください:プライバシーの保護と安全な機械学習を可能にするオープンソースのFHEベースのツールキット
- 新たなディープ強化学習(DRL)フレームワークは、シミュレートされた環境で攻撃者に対応し、サイバー攻撃がエスカレートする前に95%をブロックすることができます
- 『AI論文によると、大規模な言語モデルの一般的なパターンマシンとしての異なるレベルの専門知識を説明します』
- 「AIのテスト:ChatGPTと他の大規模言語モデルの偽ニュース検出における詳細な評価」
- このAIニュースレターは、あなたが必要とするすべてです #56
- シンボルの調整は言語モデルの文脈における学習を向上させます
- 「ポッドキャスティングのためのトップAIツール(2023年)」