スタンフォードの研究者が提案する「EVAPORATE:言語モデルの推論コストを110倍削減する新しいAIアプローチ」

Stanford researchers propose a new AI approach, EVAPORATE, that reduces the inference cost of language models by 110 times.

近年、大型言語モデルは常に注目を浴びています。彼らの非凡な能力と様々な分野での応用により、新しい研究論文やLLMの新しいアップデートがほぼ毎日リリースされています。現在のLLMは非常に多くのパラメータを持っており、トレーニングコストが非常に高くなっています。彼らは数兆のトークンで訓練されており、非常に高価です。

最近公開された研究論文では、スタンフォード大学とコーネル大学の学生たちが、高価なLLMの課題に取り組む方法を提案しています。チームは、大規模なドキュメントの処理時に言語モデル(LM)が高価であることを共有しています。彼らは、55百万のウィキペディアページ上での推論のコストを例に挙げており、それは10万ドルを超え、1000トークンあたりの価格は0.002ドルを超えるものです。著者らが提案した手法は、各ドキュメントごとに推論を直接実行する場合と比べて、推論コストを110倍削減し、結果の品質も向上させることができます。

このプロトタイプシステムはEVAPORATEと呼ばれ、LLMsがこのシステムを駆動し、システムを実装するための2つの異なる戦略を特定します。最初の戦略は、LLMに直接ドキュメントから値を抽出するように求めることです。2番目の戦略は、LLMに抽出を実行するコードを合成するように求めることです。チームはこれらの2つのアプローチを評価し、それらの間にコストと品質のトレードオフがあることを発見しました。コード合成はより安価でしたが、LLMで各ドキュメントを直接処理する場合よりも精度が低かったです。

EVAPORATEは、複数のドキュメント間の冗長性を特定し、効率を改善するためにそれらを利用します。チームは、医療機器のFDAレポートからデバイスの分類属性を抽出する例を使用して、これを説明しています。著者らは、LLMで各半構造化ドキュメントを処理する代わりに、LLMを使用して各ドキュメントから抽出するために再利用できる関数を生成することを検討しています。

品質を向上させ、低コストを維持するために、チームはEVAPORATE-CODE+と呼ばれる拡張コード合成実装を提案しています。この手法は多くの候補関数を生成し、弱い教師付き学習を使用してそれらの抽出をアンサンブル化します。弱い教師付き学習は通常、人間が生成した関数に適用されますが、EVAPORATE-CODE+は機械生成の関数で動作し、この設定の課題に対処して品質の向上を実現します。

EVAPORATEは、さまざまな形式、トピック、属性タイプの16セットのドキュメントで評価されました。LLMでドキュメントをサブリニアパスで処理することで、LLMが処理する必要のあるトークンの数が110倍減少しました。これは、各16の評価設定で10,000ドキュメントごとに平均化された結果です。

結論として、この論文はLLMを使用して半構造化ドキュメントからテーブルを自動抽出するための有望なアプローチを提案しています。直接抽出とコード合成のトレードオフを特定し、品質を向上させながら低コストを維持するための拡張実装を提案することで、この研究はデータ管理コミュニティに向けて進歩を遂げるでしょう。

We will continue to update VoAGI; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more

コンピュータサイエンス

このツールは、AIによる画像の操作からあなたの写真を保護することができます

「PhotoGuard」は、MITの研究者によって作成されたもので、我々には感知できない方法で写真を変更することで、AIシステムがそ...

機械学習

「AIとのプログラミング」

ジェネレーティブプログラミングはどのようにプログラミング言語を変革するのでしょうか?早い段階で既に見られる問題は、ど...

AI研究

AdobeのAI研究が提案する「ラージリコンストラクションモデル(LRM)」は、単一の入力画像からオブジェクトの3Dモデルを5秒以内に予測するというものです

多くの研究者たちは、任意の2D画像を瞬時に3Dモデルに変換できる世界を想像してきました。この分野の研究は、これらの長年の...

AI研究

「UCバークレーの研究者たちは、スターリング-7Bを発表しました:AIフィードバックからの強化学習でトレーニングされたオープンな大規模言語モデル(LLM)です(RLAIF)」

大規模言語モデル(LLM)は、自然言語処理タスクのための人工知能モデルです。これらのモデルは膨大なデータセットでトレーニ...

データサイエンス

「データプラットフォームから機械学習プラットフォームへ」

データ/機械学習は、私たちのテクノロジーの風景では最も人気のあるトピックです私はデータ/機械学習プラットフォームの理解...

AIニュース

「NvidiaとiPhoneメーカーのFoxconnが「AI工場」を建設する」というニュースが発表されました」

「フォックスコンの劉氏はBBCに、電気自動車が今後数十年で同社の成長を牽引すると語った」