「TR0Nに会ってください:事前学習済み生成モデルに任意のコンディショニングを追加するためのシンプルで効率的な方法」

TR0N A Simple and Efficient Method for Adding Arbitrary Conditioning to Pre-trained Generative Models

最近、大規模な機械学習モデルが様々なタスクで優れた成績を収めています。しかし、このようなモデルのトレーニングには多くのコンピュータのパワーが必要です。そのため、現在の大規模な事前学習モデルを適切かつ効果的に活用することが重要です。しかし、複数のモデルの能力をプラグアンドプレイで統合するという課題はまだ解決されていません。このタスクを行うためのメカニズムは、モジュール化されていてモデルに中立的なものであることが好ましいです。これにより、簡単にモデルの部品を切り替えることができます(例えば、CLIPをVAEを使った新しい最先端のテキスト/画像モデルに置き換える)。

この研究では、Layer 6 AI、トロント大学、およびベクトル研究所の研究者が以前にトレーニングされたモデルを混合して条件付き生成を調査しています。条件付き生成モデルは、条件付きデータ分布を学習することを目指します。通常、これらは、クラスラベルと対応する写真xや言語モデルcを介して供給されるテキストプロンプトなど、一致するcを持つデータのペアリングでゼロからトレーニングされます。彼らは、事前学習された無条件のプッシュフォワード生成モデルを、事前分布p(z)からサンプリングされた潜在変数zをデータサンプルx = G(z)に変換するモデルGを使用して条件付きモデルに変更したいと考えています。これを行うために、彼らはTR0Nを提供します。これは、事前学習された無条件の生成モデルを条件付きにトレーニングするための幅広いフレームワークです。

TR0Nは、トレーニング済みの補助モデルf(分類器またはCLIPエンコーダ)へのアクセスを前提としています。また、関数E(z, c)にもアクセスすることを期待しています。この関数は、潜在変数zに対してG(z)が条件cを「よりよく満たす」値を割り当てます。TR0Nは、与えられたcに対してzに関するE(z, c)の勾配をTステップで最小化し、必要な条件付きデータサンプルを提供するlatentsを特定するために、この関数の勾配を最小化します。しかし、彼らは最初にEを単純に最適化することがより良い結果をもたらすことを示しています。このため、TR0Nは最適化プロセスをより効果的に最適化するために使用するネットワークの研究を開始します。

条件cからE(z, c)が最小となるような一致する潜在変数zへ「変換」するため、このネットワークは翻訳ネットワークとして知られています。翻訳ネットワークはGを調整せずに事前に作成されたデータセットを使用しないでトレーニングされます。TR0Nはゼロショットアプローチであり、訓練可能な部分は軽量な翻訳ネットワークのみです。TR0Nは、Gやfのいずれのコンポーネントも容易にアップグレードできるため、最新の最先端バージョンが利用可能になった場合にも非常に高価な条件付きモデルのトレーニングを回避できます。

図1

図1の左パネルでは、翻訳ネットワークのトレーニング方法について説明しています。翻訳ネットワークのトレーニングが完了した後、Eの最適化がその出力を使用して開始されます。単純な初期化に比べて、これによりアモルティゼーションギャップによる性能の低下を回復し、より良い局所最適解とより速い収束を実現します。TR0Nは、効果的な初期化戦略を使用してLangevinダイナミクスでサンプリングすると解釈することも可能です。翻訳ネットワークは条件付き分布q(z|c)であり、E(z, c)が小さいような潜在変数zに高い密度を割り当てます。また、Eの勾配最適化中にノイズも追加します。図1の右パネルでは、TR0Nでのサンプリング方法を示しています。

彼らは以下の3つの貢献を行っています:(i)翻訳ネットワークとそれらの特に効果的なパラメータ化の導入により、Langevinダイナミクスの異なる初期化方法が可能になります。(ii)TR0Nを非常に一般的なフレームワークとして位置付け、以前の関連研究は主に特定のGとfの選択肢に焦点を当てていました。(iii)TR0Nが画像品質と計算可能性のタスク全体で競合する代替手法を実証し、多様なサンプルを生成します。デモはHuggingFaceで利用可能です。

We will continue to update VoAGI; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more

機械学習

「LLaMA-v2-Chat対アルパカ:どのAIモデルを使用するべきですか?」

この記事は以下の質問に答えます:LLaMA-v2-Chat vs アルパカ、どちらを使うべきですか?両方のAIモデルの利点と欠点は何です...

データサイエンス

「StackOverflowが生成型AIに対応する方法」

OverflowAIは、強力な生成AIループによってプロセスを効率化することで、コンテンツ作成を革命化します

機械学習

このAIニュースレターはあなたが必要とするものです#76

今週、私たちはトランスフォーマーや大規模な言語モデル(LLM)の領域を超えた重要なAIの進展に焦点を当てました最近の新しい...

人工知能

「AI倫理ツールキットが機能する理由を探る」

AIシステムの重要な影響を持つアプリケーションでの使用が増えるにつれて、専門家たちはこれらのシステムを設計する際により...

AI研究

複雑なAIモデルの解読:パデュー大学の研究者が、ディープラーニングの予測を位相マップに変換

複雑な予測モデルの高度なパラメータ化の性質により、予測戦略の説明と解釈が困難です。研究者たちは、この問題を解決するた...

AIニュース

「OpenAI、マイクロソフトの支援を受けてGPT-5開発に向けて準備を進める」

次世代AI分野を指し示す大胆な動きとして、OpenAIのCEOサム・オルトマンは人気の高いChatGPTの後継機であるGPT-5の開発を示唆...