「迅速エンジニアリングのための普遍的な道筋:コンテクストの足場フレームワーク(CSF)」

「美容とファッションのエキスパートが織りなす鮮やかな記事」

効果的なプロンプトエンジニアリングのための一般的なメンタルモデル。

画像は著者によって生成され、DALL·E 3で生成されました

イントロダクション

最近の記事で、私はChatGPT4向けの新しいプロンプトエンジニアリングアプローチを探求しました。私はそれをプログラムシミュレーションと呼びました。この方法によって、ChatGPT4は一貫してプログラムの状態をエミュレートする驚異的な能力を示しました。これらの探求は、言語の微妙な力、単語の重み、意味論、総合的な文脈の重要性に対する私の理解を高めました。この記事では、これらの微妙なニュアンスのいくつかを探求し、私が「コンテキストサポートフレームワーク」と名付けたプロンプトエンジニアリングのための普遍的なフレームワークを提案します。このフレームワークは効果的に一般化し、思考の連鎖(CoT)、お世辞/役割割り当て、プログラムシミュレーションなどのテクニックを1つの傘の下に統合する能力を持っているように見えます。また、多くのシナリオで効果的なプロンプト作成のための使いやすいメンタルモデルを提供します。

プラグマティクスの世界へ

私が言語の微妙なニュアンスをより詳しく調べる努力は、強意として形成され、意味解釈における文脈の影響を調べる言語学の一分野であるプラグマティクスから始まりました。特に2つの概念が目立ちました:

  1. 暗示:話者が明示的に述べずに何かを暗示し、リスナーに意図した意味を推測させること。
  2. 前提:対話参加者が話者とリスナーの間で共有されていると信じている仮定や情報。

これらの概念からの中心的な洞察は、単語の意味がその文字通りの定義を超えて広がるということです。例えば「犬」という用語を考えてみましょう。基本的な定義を超えて、暗黙の情報の宝庫を持っています。「犬は時間を通じて存在し、空間を移動し、食べ、聞こえ、吠える」など、明示的には述べていませんが、この知識を共有していると期待され、与えられた文脈に応じて適切な意味を抽出します。言語表現は、単語や小説であろうとも、暗黙の定義、暗示、感情、連想のブレンドである「意味のオーラ」を発しています。これらの「意味のオーラ」は、密度、複雑さ、明確さによって異なる場合があり、しばしば状況に依存します。

大規模言語モデル(LLM)と「意味のオーラ」

大規模言語モデル(LLM)は、ある意味で対話型の人間との「意味のオーラ」の生成を体系化しています。しかし、実際にはこれらのモデルは単語ごとの予測を行っているに過ぎません。これらのモデルが「意味のオーラ」の相互作用を暗黙にモデル化している可能性はあるでしょうか?それをどのように測定できるでしょうか?これらの問いに答えるためには、詳細な研究が必要ですが、プラグマティクスへの私たちの簡単な進出は、即座の実用性を持ち、普遍的なプロンプトエンジニアリングのフレームワークの重要な基盤となることができます。

コンテキストサポートフレームワーク(CSF)

以前多くの人々が指摘してきたように、ChatGPT-4のようなモデルの効果的なプロンプト作成は、文脈に依存しています。しかし、モデルの出力に対する私たちの期待と、モデルがそれらの期待を満たすために「操作」する方法も考慮する必要があります。「意味のオーラ」の概念を念頭に置きながら、プロンプトの文脈をカテゴリごとに分解するアプローチを検討してみましょう。これらのカテゴリを「サポート」と呼び、広範に適用可能な2つのサポートを具体化します。

期待的なコンテキストサポート — ユーザーの願望、意図、目標、および現在の状況の具体的な内容を包括します。ユーザーの個人的な文脈が関連する場合は、それも考慮に入れる必要があります。

操作的なコンテキストサポート — AIの操作パラメータを確立します。モデルの役割、使用する技術、必要な外部データ、およびその自律性と裁量の範囲を定義します。

以下はフレームワークの直感的なビジュアル表現です:

画像は著者によるものです

今、ChatGPT-4のプロンプトにこのアプローチを実践してみましょう。私たちは意味的に豊かな「意味のオーラ」を持ち、望んでいる出力を生成する可能性のあるスキャフォールドのための言語の選択に焦点を当てます。

コンテキストスキャフォールドプロンプト

「私の期待するコンテキスト-あなたの目標は、人工知能テディベアについての物語を書く手助けをすることです。私の物語の対象は大人です。この物語は、現時点ではフォロワーがいませんが、将来的には私のブログで共有する予定です。

あなたのオペレーションコンテキスト-私の期待するコンテキストの充足度を最大化するために、ダイアログで自己組織化プログラムのシミュレーションのように振る舞います。私の期待するコンテキストのすべての側面を考慮するよう心掛けてください。プログラムの機能や振る舞いについての自律性と裁量がありますが、常に永続的なトップレベルメニューを手元に置いてください。ソフトウェアコードを生成せず、プログラムを直接出力テキストでシミュレートしないでください。このプロンプトを受け取ったら、シミュレーションを進めてください。」

皆さんは少し異なるものを手に入れると思いますが、ほとんどの場合は以下のようなものです:

出力からわかるように、ChatGPT-4は「期待するコンテキスト」のほとんどを満たすプログラムのシミュレーションを開始しました。私は、意味的に豊かな「意味のオーラ」を発する両方のスキャフォールドで言語を指定することで、これに大きな影響を与えました。

これまでに、プロンプト作成のためのわかりやすい普遍的なフレームワークを定義しました。フラッタリー/役割割り当て、フューショット、CoTなどのテクニックは主に「オペレーションコンテキストスキャフォールド」に属しています。一方、「期待するコンテキストスキャフォールド」に完全に根付いたテクニックは特定できませんでしたが、ほとんどの目標駆動型のプロンプト言語は、このスキャフォールドに適合するはずです。したがって、ある意味では、私たちは皆、デフォルトでこのテクニックを暗黙的に使用しています。

しかし、それだけで結論を出してしまうのでしょうか?この記事をここでまとめてしまうのか、それとも派生的な洞察があるのでしょうか?さらに探ってみましょう…

プロンプトエンジニアリングのためのコンテキストスキャフォールドの最適化

選んだLLMとの関わり方において、私たちの究極の希望は、モデルが私たちの期待に応えるか、それを超える出力を生成することです。最適化の観点からスキャフォールドを見ると、目標は「期待するコンテキスト」を最も充足する1つまたは複数の「オペレーションコンテキスト」を特定することです。数学的な専門用語に戸惑う方もいるかもしれませんが、お付き合いください。これは短いディツァになります。

このような関数を以下のように表現できます:

O = LLM(EC)

ここで:

Oは最適なオペレーションコンテキストのセット (OCₙ) です,

LLMは、大規模言語モデルによって体現される関数です。

セットOの各要素、OCᵢとします。OCᵢは、与えられた期待するコンテキストに対する異なる最適なオペレーションコンテキストを表します:

O={OC₁,OC₂​,…,OCₙ​}

オペレーションコンテキストと期待するコンテキストが多次元であるため、それらを属性のベクトルとしてより詳細にモデル化する方が良いでしょう:

EC={e₁​,e₂,…,eₙ​}

OC={o₁​,o₂​,…,oₙ​}

最終的な目的関数は、与えられたECに対してセットOのすべてのOCで効用関数Uを最大化するように表現できます:

これらの数学的抽象化は、期待するコンテキストをオペレーションコンテキストに変換することを体系化しようとしていますが、与えられた期待するコンテキストに対して複数の最適なオペレーションコンテキストが存在する可能性を認識しています。このようなフレームワークを使用してモデルを微調整する可能性については、将来的に検討していきますが、今はこれらのアイデアの実践的な含意を考えてみましょう。

期待するコンテキストスキャフォールドをうまく表現する方法を把握しているが、オペレーションコンテキストスキャフォールドに含める要素に自信が持てない場合、ChatGPT-4の支援を受けることはできるでしょうか?

それでは、適切にプロンプトを作成し、返ってくる結果を見てみましょう。

開放的なオペレーションコンテキストプロンプト

「私の期待するコンテキスト-あなたの目標は、人工知能テディベアについての物語を書く手助けをすることです。私の物語の対象は大人です。この物語は、現時点ではフォロワーがいませんが、将来的には私のブログで共有する予定です。

あなたの操作的な文脈 – 私の期待文脈の最大の達成を図るために、最低1つ以上5つ以下の操作的な文脈を提案してください。人、チーム、組織の種類、プログラム、または特定の能力を持つシステムとして振る舞うことを提案することができます。外部データの利用を提案したり、トレーニング例の提供を依頼したりすることもできます。また、特定の技術やアプローチの利用を提案することもできます。これらの要素の任意の組み合わせを提案してください。操作的な文脈は、最も最適な順にランク付けされるべきです。それぞれについて、そのランク付けにつながる理由を示してください。

予想通り、ChatGPT4は5つの操作的な文脈を提供しています。2つは組織のエンティティ、1つはシステムであり、2つは個人です。操作的な文脈はランク付けされ、各ランク付けには理由が含まれています。例えば、「文学的なシンクタンク」や「歴史とSF研究所」といった概念の「意味のオーラ」を考えてみてください。私たち自身では思いつかなかった操作的な文脈の豊富さと意味を感じることでしょう。このアプローチにより、私たちは「期待文脈の足場」を明確に表現するための出発点を絞り込むことで、効果的なプロンプト作成の障壁を下げることができます。

結論

語用論の微妙な点や「意味のオーラ」の概念に深入りするにつれて、多角的な形態を持つ文脈がLLMとの相互作用を最適化する鍵であることが明らかになります。文脈的な足場フレームワーク(CSF)は、非常に効果的に文脈を表現するための明確な進行手順を提供します。期待文脈と操作的文脈を区別することで、CSFはユーザーの期待をChatGPT-4などのモデルの能力と合わせるための明確なパスを提供します。さらに、CSFは拡張可能であり、他の足場が関連するか必要に応じて追加や削除が可能です。同様に、各足場は、与えられた文脈の特定の特徴を表すコンポーネント足場に分割することもできます。

読んでいただきありがとうございます。CSFがプロンプト作成の有用なモデルとなることを願っています!私は追加の探査中ですので、新しい記事が公開された際にはフォローして通知を受け取るようにしてください。CSFやその他の記事についてさらに議論したい場合は、LinkedInで私と連絡を取ることを躊躇しないでください。

この記事のすべての画像は、特に注記がない限り、著者によって提供されています。

We will continue to update VoAGI; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more