「Google DeepMindの研究者が『プロンプトブリーダー』を紹介:与えられたドメイン内で自己言及的かつ自己向上型AIシステムで、効果的なドメイン固有のプロンプトを自動的に進化させることができます」というものです

『Google DeepMindの研究者が語る「プロンプトブリーダー」:自己言及かつ自己向上型AIシステムによる効果的なプロンプト進化』

大型言語モデル(LLMs)は、人間の模倣特性により注目されています。これらのモデルは、質問に答える、コンテンツを生成する、長いテキストのパラグラフを要約するなど、さまざまな能力を持っています。GPT-3.5やGPT-4などのLLMの性能を向上させるためには、プロンプトは重要です。プロンプトの作成方法は、推論、多モーダル処理、ツールの使用など、様々な領域でLLMの能力に大きな影響を与えることができます。研究者が設計したこれらの技術は、モデルの蒸留やエージェントの振る舞いシミュレーションといったタスクで有望な結果を示しています。

プロンプトの手動エンジニアリングによって、この手順が自動化できるかという疑問が生じます。Automatic Prompt Engineer(APE)は、データセットの入出力インスタンスに基づいてプロンプトのセットを生成することによって、この問題に取り組んだ試みを行いましたが、APEはプロンプトの品質の低下に伴う収益の減少を示しました。研究者は、LLL向けのプロンプト作成で収益の低下を克服するための多様性を保ちながら進化するアルゴリズムに基づく方法を提案しています。

LLMは、重み行列を変更して性能を向上させるように、プロンプトを変更することができます。この比較によれば、LLMは自身の能力と能力向上のプロセスの両方を向上させるために作成され、それにより人工知能は無限に向上し続けることが可能になります。これらの考えに応えて、Google DeepMindの研究チームは最近の研究でPromptBreeder(PB)を導入しました。これは、LLMが自己言及的な方法で自己を改善するための技術です。

PBでは、特定のドメインに対する問題の説明、変異プロンプトを変更するための指示である初期変異プロンプトのセット、およびテキスト形式の一般的な認知ヒューリスティクスである思考スタイルが必要です。PBは、LLMの変異演算子としての能力を利用して、異なるタスクのプロンプトと変異プロンプトを生成します。これら進化したタスクプロンプトの適合性は、トレーニングセットで評価され、タスクプロンプトとそれに関連する変異プロンプトからなる進化ユニットのサブセットが将来の世代に選択されます。

研究チームは、PromptBreederが数世代にわたって特定のドメインに合わせてプロンプトが調整されることを共有しています。例えば、数学の分野で数学的な問題を解くための明示的な指示を含むタスクプロンプトをPBが開発しました。一般常識の推論、算術、倫理などを含むさまざまなベンチマークタスクで、PBは最先端のプロンプト技術を上回るパフォーマンスを発揮します。PBは自己言及的な自己改善のためのパラメータ更新は必要とせず、さらに広範かつ能力のあるLLLがこの戦略に利益を得る未来が示唆されています。

PromptBreederの作業プロセスは以下のように要約できます:

  1. タスクプロンプトの変異:タスクプロンプトは、特定のタスクやドメインのために作成されるプロンプトです。PromptBreederは、これらのプロンプトの集団から始めます。タスクプロンプトは変異を受けてバリアントが生成されます。
  1. 適応評価:変更されたタスクプロンプトの適合性が、トレーニングデータセットを使用して評価されます。この評価では、LLMがこれらのバリエーションへの応答の良さが測定されます。
  1. 継続的進化:生物学的進化と同様に、変異と評価のプロセスは複数世代にわたって繰り返されます。

まとめると、PromptBreederは、LLLのためにプロンプトを自律的に進化させるためのユニークかつ成功した技術として大いに賞賛されています。PromptBreederは、タスクプロンプトと変異プロンプトの両方を反復的に改善することにより、マニュアルプロンプトメソッドを上回る性能を発揮します。

We will continue to update VoAGI; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more

人工知能

LLMツールはソフトウェアの脆弱性を発見し、修復します

ソフトウェア会社Vicariusは、先月のBlack Hat USAカンファレンスで、ソフトウェアの脆弱性を自動的に特定および修復する生成...

データサイエンス

データセットの凝縮の潜在能力を解き放つ:SRe^2LがImageNet-1Kで記録的な精度を達成

近年、データの圧縮と蒸留手法に注目が集まり、人工知能の研究に革新をもたらしています。これらの手法は、大規模なデータセ...

機械学習

専門AIトレーニングの変革- LMFlowの紹介:優れたパフォーマンスのために大規模な基盤モデルを効率的に微調整し、個別化するための有望なツールキット

大規模言語モデル(LLMs)は、大規模な基盤モデルの上に構築されており、以前は不可能だったさまざまなタスクを実行する一般...

人工知能

AWS Inferentia2は、AWS Inferentia1をベースにしており、スループットが4倍に向上し、レイテンシが10倍低減されています

機械学習モデル(MLモデル)のサイズ、特に生成AIにとって、大規模言語モデル(LLM)やファウンデーションモデル(FM)のサイ...

AIニュース

「知っておくべきトップBERTの応用事例」

言語モデルの事前学習は、自然言語処理(NLP)と自然言語理解(NLU)の分野を大いに進歩させました。それは、感情分析、質問...

機械学習

このAI論文は、「Vary」という新しいアプローチを明らかにしています:高度な多言語認識タスクのための大規模なビジョン言語モデルの視覚語彙を拡張するためのアプローチ

大視覚言語モデル(LVLM)は、コンピュータビジョンと自然言語処理を組み合わせて、視覚的なコンテンツのテキストの説明を生...