「LLM-AUGMENTERに会いましょう:Microsoft Researchのアーキテクチャーによる、LLMをメモリ、知識、外部のフィードバックで拡張する手法」

Introducing LLM-AUGMENTER Microsoft Research's method of expanding LLM with memory, knowledge, and external feedback.

新しいフレームワークは、本番向けのLLMソリューションの参考として利用できます。

Midjourneyを使用して作成

最近、AIに特化した教育ニュースレターを開始しました。すでに16万人以上の購読者がいます。TheSequenceは、5分で読み終わるML志向のニュースレターで、ハイプやニュースなどは一切ありません。機械学習プロジェクト、研究論文、概念の最新情報を提供することを目指しています。ぜひ以下のリンクを購読して試してみてください。

TheSequence | Jesus Rodriguez | Substack

機械学習、人工知能、データの最新動向を把握するのに最適な情報源

thesequence.substack.com

ChatGPTなどのLarge Language Models(LLM)の印象的な能力は広く認識されています。これらのモデルは、流暢で一貫性があり、情報量の多い自然言語テキストを生成することに優れています。その優れたパフォーマンスは、エンコードされた世界の知識の豊富さと、それからの一般化能力によるものです。しかし、LLMの知識エンコーディングは損失しやすく、一般化の過程で「メモリのゆがみ」が生じる可能性があります。その結果、これらのモデルはしばしば幻覚を起こし、重要なタスクに展開された場合に問題が生じることがあります。さらに、モデルのサイズの指数関数的な成長にもかかわらず、LLMは多くのアプリケーションで必要なすべての情報をエンコードする能力を持っていません。例えば、現実世界の状況の動的性は、ニュースの質問応答のような時間的に敏感なタスクでは、LLMがすぐに時代遅れになる原因となります。また、多くの専有データセットはプライバシーの問題からLLMのトレーニングにはアクセスできません。最近、マイクロソフトリサーチは、外部の知識と自動フィードバックでLLMを強化するためのフレームワークであるLLM-AUGMENTERを紹介する論文を発表しました。

機能的には、LLM-AUGMENTERは知識の拡張とメモリを組み合わせた一貫したアーキテクチャです。次の図は、サッカーシナリオの文脈でLLM-AUGMENTERを示しています。ユーザーのクエリ(例:2013年のロサンゼルスギャラクシーに関する選手移籍についての質問)が提示されると、LLM-AUGMENTERは証拠を取得します…

We will continue to update VoAGI; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more

機械学習

「ターシャーに会ってください:GPT4のようなマルチモーダルLLMとのウェブインタラクションを可能にするオープンソースのPythonライブラリ」

AIの成長とそれによる私たちの生活への影響はますます大きくなっており、AIをより便利で使いやすくするための研究が行われて...

機械学習

このNVIDIAのAI論文は、検索補完と長い文脈の力を探求しています:どちらが優れているのか、そしてそれらは共存できるのか?

ナビディアの研究者たちは、大規模言語モデル(LLM)のパフォーマンスにおける検索補完とコンテキストウィンドウサイズの影響...

機械学習

TRACE(トレース)に会おう:グローバル座標トラッキングを使用した正確な3D人体姿勢および形状推定のための新しいAIアプローチ

多くの分野が、3D人間姿勢と形状(HPS)の最近の進歩を利用し、活用することができます。しかし、ほとんどのアプローチは一度...

コンピュータサイエンス

犯罪者が自分たちのChatGPTクローンを作成しました

サイバー犯罪者は、フィッシングやマルウェアの作成に役立つ大規模な言語モデルを宣伝していますが、AIチャットボットは単な...

AI研究

スタンフォード研究所がFlashAttention-2を発表:長い文脈の言語モデルの速度と効率の飛躍

過去の1年間、自然言語処理は著しい進歩を遂げており、長い文脈を備えた言語モデルが登場しました。これらのモデルには、32k...