ETHチューリッヒの研究者たちは、LMQLという言語モデルとの相互作用のためのプログラミング言語を紹介しました
ETHチューリッヒの研究者たちは、LMQLという言語モデルとの相互作用のためのプログラミング言語を紹介しました' can be condensed to 'ETHチューリッヒの研究者は、LMQL言語モデルとの相互作用のためのプログラミング言語を紹介しました
大規模な言語モデルの性能は、質問応答やコード生成などのさまざまなタスクで印象的でした。言語モデルは、入力に基づいてシーケンスの統計的に妥当な結論を自動的に生成することができます。ユーザーは、話し言葉の指示や例を通じてこれらのモデルを訓練し、さまざまな後続の活動を行うことができます。より複雑なプロンプティング技術には、言語モデル、ユーザー、電卓などのサードパーティアプリケーションとの協力が含まれる場合もあります。最新のパフォーマンスを達成するためには、複雑なタスクおよびモデル固有のプログラムを実装する際に、アドホックなインタラクションが依然として必要な場合もあります。
これを踏まえ、スイスの研究者たちは、言語モデルプログラミング(LMP)という最先端の概念を紹介しました。LMPは、単純なテキストプロンプトを超えて言語モデルプロンプティングの範囲を拡大し、これらの2つの方法の自然なハイブリッドを提供します。さらに、LMPでは言語モデルが生成する結果を制限することができます。これにより、言語モデルの高い抽象度が実現され、さまざまな活動に容易に適応できます。研究者はLMPを実装するためにLMQL(Language Model Query Language)を使用しており、LMPプロンプトからの制約と制御フローを使用して、基礎となる言語モデルへのコストのかかる呼び出しの数を削減する効率的な推論技術を生成します。彼らは、既存のハイレベルAPIでは実装が難しい対話型フローを容易にするさまざまな先端プロンプティングメカニズムをLMQLがどのように捉えるかを示しています。この調査では、計算時間または使用料(有料APIの場合)を劇的に削減しながら、さまざまな下流の活動で精度を維持または向上させることを実証しています。
それはどのように機能しますか?
- 「Google DeepMindと東京大学の研究者が、WebAgentを紹介:自然言語の指示に従って実際のウェブサイト上のタスクを完了できるLLM-Drivenエージェント」
- 「研究者がChatGPTを破った方法と、将来のAI開発に与える可能性」
- 「KAISTの研究者がFaceCLIPNeRFを紹介:変形可能なNeRFを使用した3D顔のテキスト駆動型操作パイプライン」
LMQLは、その宣言的な性質から、タスクの望ましい結果を指定するだけで、ロジックの制御フローの詳細を別の言語に任せます。それはSQLのアイデアを借りてPythonの上に構築されています。ユーザーは、モデルにテキストとプログラム可能な質問の両方を与えることができます。
このレポートでは、言語の文法の5つの主要なコンポーネントが特定されています。デコーダの役割は、テキスト生成アルゴリズムの秘密を解明することです。これは、データをより有用なもの、つまりより高品質でさまざまな表現方法に変換するコードの一部です。
言語モデルとの対話の基本的なツールは、Python構文で記述されたクエリブロックです。クエリブロックのトップレベルの各文字列は、個別のクエリを表します。クエリの対象モデルは、Model/from句で識別されます。これは、テキストが生成される言語的基盤を指定します。一方、Where句では結果を制御するパラメータを設定することができます。必要なプロパティを維持するために言語モデルが生成する必要がある内容を指定します。
LMQLのユーザーは、言語モデルによって生成される結果に洗練された論理的な制約を設定することができます。これらの制約からは、トークンレベルの予測マスクが自動的に生成されるため、テキストの生成の初めに厳格に強制されることができます。その結果、さまざまな制約を慎重に強制することができ、モデルは基準を満たすコンテンツのみを生成します。出力形式の保証が改善されたことにより、マルチパートのプロンプティングと統合がより簡単になりました。
主な貢献
- この研究の著者たちが特定し、解決した現在のLMプロンプティング方法のいくつかの問題に対して、革新的な言語モデルプログラミングのパラダイムを紹介しています。
- LMQLは、LM向けの高レベルクエリ言語であるため、スクリプトによるプロンプティングと出力の制限という2つの機能を提供しています。
- 熱心な部分評価セマンティクスの最終的な抽象化と後続の抽象化の形式的な説明。これにより、一般的なガイドラインのみが与えられた場合でも、モデル固有のトークンマスクがLMデコーディングのために自動的に生成されます。
- LMQLの徹底的な分析により、短く理解しやすいLMQLプログラムとしてさまざまな基本的および洗練されたプロンプティングアプローチを表現する方法が示され、LMQLの推論コストと実行時間を最大80%削減することができます。
研究者による事例研究によると:
- LMQLの高い表現能力により、多くの最新の先端技術を、比較可能なPythonベースのものよりもはるかに少ない行数で実装することができます。
- LMQLを使用することで、モデルクエリの数、効率性、実行時間が大幅に改善されます。トークンレベルの検証を可能にするLMQLの能力により、チャンク単位のデコーディングやバックトラッキングに頼らずに制約を動的に強制することができます。
- LMQLはモデルの精度に影響しません。設定された制約によるわずかな精度向上が見られる場合もあります。
さらに、研究者たちは、有料のAPIゲートモデルの文脈で使用される場合、LMQLが請求可能なトークンの削減による著しい費用削減を提供することを実証しています。最後に、彼らはこれらのケーススタディが、LMQLの実用性に関する主張の信憑性を脅かす、実世界のプロンプトエンジニアとの並行して評価される包括的なユーザー調査とは別であることを指摘しています。このような研究の不足は、実用性に関する主張の信憑性を脅かすものであることを忘れてはなりません。
結論として、専門家は、(巨大な)言語モデルとの対話の新しいアプローチとして、言語モデルプログラミングを提案しています。直感的な構文を持つ高レベルのクエリ言語であるLMQLが導入されました。LMQLの評価セマンティクスは効率的に開発され、迅速なクエリ処理が可能となりました。彼らはケーススタディを通じて、高度なプロンプト方法を簡単で明確かつ高速なLMQLコードに変換することで、計算費用を最大80%削減することができることを証明しています。
We will continue to update VoAGI; if you have any questions or suggestions, please contact us!
Was this article helpful?
93 out of 132 found this helpful
Related articles
- 『ChatGPTや他のチャットボットの安全コントロールに研究者が問題点を指摘』
- RT-2 新しいモデルは、ビジョンと言語をアクションに変換します
- DeepMindの研究者たちは、正確な数学的定義を用いて、連続した強化学習を再定義しました
- イギリスのインペリアル・カレッジ・ロンドンとディープマインドの研究者たちは、AIフレームワークを設計しましたこのフレームワークは、言語をRLエージェントの中核的な推論ツールとして使用します
- CMUの研究者が「WebArena」を導入:有用なエージェントのベンチマーキングを行うための4つ以上の現実的で再現可能なWeb環境となる4つ以上の現実的なWebアプリを備えたもの
- 「INDIAaiとMetaが連携:AIイノベーションと共同作業の道を開く」
- 研究者たちは「絶対的に安全な」量子デジタルペイメントを実証