Learn more about Search Results アダプタ - Page 6

ファインチューニングLLM パラメータ効率の改善 (PEFT) — LoRA および QLoRA — パート1

このブログでは、パラメータ効率的微調整(PEFT)のアイデアを理解し、PEFTの2つの最も重要な手法であるLoRAとQLoRAを探求します

GoogleとJohns Hopkins Universityの研究者は、テキストから画像生成のためのより速く効率的な蒸留方法を明らかにします:拡散モデルの制限を克服する

高品質で多様な効果を生み出すことにより、大規模データで訓練されたテキストから画像への変換モデルは、生成タスクを大幅に支配しています。最近のトレンドでは、画像の変形、エンハンス、またはスーパーレゾリューションなどの典型的な画像変換タスクは、事前訓練されたテキストから画像への生成モデルを用いて、外部画像条件によって生成された結果によってガイドされます。事前訓練モデルによって導入された拡散先は、さまざまな変換手順における条件付き画像生成の視覚的品質を著しく向上させることが証明されています。一方、拡散モデルは頻繁に多くの反復を必要とする反復的な洗練プロセスに大いに依存しており、効果的に完了するには時間がかかることがあります。 解像度の高い画像合成への依存度はさらに高まります。たとえば、高度なサンプリング技術を使用しても、最新のテキストから画像への潜在拡散モデルでは、20〜200のサンプルステップがしばしば必要とされます。遅いサンプリング期間は、上記の条件付き拡散モデルの実用的な適用範囲を制限しています。最近の拡散サンプリングの高速化の試みは、蒸留技術を使用しています。これらの技術により、サンプリングを大幅に高速化し、4〜8ステップで終了させることができますが、生成パフォーマンスにほとんど影響を与えません。最近の研究では、これらの技術は既に訓練された大規模なテキストから画像への拡散モデルを凝縮するためにも使用できることを示しています。 図1は、我々の手法が非条件付きモデルを即座に条件付き拡散モデルに変換する様子を示しています。 彼らは提案されたアプローチの様々な条件付きタスクにおける蒸留モデルの出力を提供し、拡散先を凝縮したサンプリング期間で再現する能力を示しています。 これらの蒸留方法に基づいて、条件付き拡散モデルを蒸留するためには、蒸留最初または条件付きチューニング最初の2つのステージ蒸留プロセスを利用することができます。同じサンプリング期間が与えられた場合、これらの2つの手法は通常、蒸留されていない条件付き拡散モデルよりも優れた結果を提供します。ただし、クロスタスクの柔軟性と学習の難易度に関して異なる利点があります。本研究では、既に訓練された非条件付き拡散モデルから条件付き拡散モデルを抽出するための新しい蒸留方法を提案します。彼らのアプローチは、伝統的な2段階の蒸留技術とは異なり、非条件付け事前訓練から始まり、蒸留された条件付き拡散モデルで終了する単一のステージを特徴としています。 図1は、与えられた視覚的設定からの手がかりを活用することで、彼らの蒸留モデルがわずか1/4のサンプリングステップで高品質な結果を予測できることを示しています。このシンプルな学習により、元のテキストから画像へのデータは必要ありません。以前の蒸留プロセスでは必要であったものです。また、最初のステージでのファインチューニング手法を使用する場合によくある誤りである事前訓練モデルの拡散先の犠牲を避けます。広範な実験データによると、同じサンプル時間が与えられた場合、彼らの蒸留モデルは視覚的品質と定量的パフォーマンスの両方で従来の蒸留技術よりも優れた結果を示します。 条件付き生成のためのパラメータ効率の高い蒸留技術に関する研究がさらに必要な分野です。彼らは、パラメータ効率の高い新しい蒸留メカニズムを提供するアプローチを示しています。追加の学習可能なパラメータをいくつか追加することで、非条件付き拡散モデルを条件付きタスクに対応させることができます。特に、彼らの公式は、T2I-AdapterやControlNetなど、既に使用されているパラメータ効率の高い調整技術との統合を可能にします。条件付きアダプタの追加された学習可能なパラメータと元の拡散モデルの固定パラメータの両方を使用することで、彼らの蒸留技術は反復的な修正を最小限に抑えつつ、依存タスクのための拡散先を再現することを学習します。この新しいパラダイムにより、いくつかの条件付きタスクの有用性が大幅に向上しました。

マルチモーダルニューロンの秘密を明らかにする:モリヌーからトランスフォーマーへの旅

トランスフォーマーは人工知能領域において最も重要なイノベーションの一つとなるかもしれません。これらのニューラルネットワークアーキテクチャは、2017年に導入され、機械が人間の言語を理解し生成する方法を革新しました。 これまでの方法とは異なり、トランスフォーマーは入力データを並列で処理するための自己注意機構に依存しており、情報のシーケンス内の隠れた関係や依存関係を捉えることができます。この並列処理能力は、トレーニング時間の短縮だけでなく、有名なChatGPTのような洗練されたモデルの開発への道を開きました。 最近の数年間は、人工ニューラルネットワークがさまざまなタスクにおいてどれだけ能力を発揮できるかを示してくれました。言語タスクや視覚タスクなどを変えました。しかし、真の可能性は、ビジョンとテキストなど、さまざまな感覚モーダリティを統合するクロスモーダルタスクにあります。これらのモデルは追加の感覚入力で補完され、異なるソースからの情報の理解と処理を必要とするタスクで印象的な性能を発揮しました。 1688年、ウィリアム・モリナクスという哲学者が、ジョン・ロックに対して長い間学者たちの心を捉え続ける魅力的な謎を提案しました。彼が提起した質問は簡単ですが、深遠です。生まれつき盲目だった人が突然視力を取り戻した場合、以前に触覚や他の視覚以外の感覚だけで知っていた物体を認識することができるでしょうか?この興味深い問い合わせは、モリナクスの問題として知られ、哲学の領域に深く関わるだけでなく、視覚科学にも重要な意味を持っています。 2011年に、視覚神経科学者たちはこの古代の問いに答えるためのミッションを開始しました。彼らは、以前は触覚のみで知っていたオブジェクトの直ちに視覚的な認識は不可能であることを見つけました。しかし、重要な発見は、私たちの脳が驚くほど適応性があることでした。視力を取り戻す手術の数日後には、個人は迅速に視覚的にオブジェクトを認識することができるようになり、異なる感覚モーダリティの間のギャップを埋めることができました。 この現象は、マルチモーダルニューロンにも当てはまるのでしょうか?答えに出会う時間です。 マルチモーダルニューロンはトランスフォーマーMLP上で特定の特徴を活性化させます。出典:https://arxiv.org/pdf/2308.01544.pdf 私たちは技術革新の真っただ中にいます。特に言語タスクで訓練された人工ニューラルネットワークは、視覚とテキストなど、さまざまな感覚モーダリティを統合するクロスモーダルタスクにおいて驚異的な能力を発揮しています。これらのモデルは、追加の感覚入力で補完され、異なるソースからの情報の理解と処理を必要とするタスクで印象的な性能を発揮しました。 これらのビジョン-言語モデルにおける一般的なアプローチの一つは、画像に応じたプレフィックス調整の形態を使用することです。このセットアップでは、別の画像エンコーダがテキストデコーダと整合し、しばしば学習済みのアダプタレイヤーの助けを借りています。このような戦略を採用している方法はいくつかありますが、通常はCLIPなどの画像エンコーダを言語モデルと一緒に訓練しています。 しかし、最近の研究であるLiMBeRは、機械においてモリナクスの問題に似たユニークなシナリオを提示しました。彼らは、一切の言語データを見たことがない自己教育画像ネットワーク「BEIT」を使用し、線形射影層で画像からテキストへのタスクでトレーニングされた言語モデル「GPT-J」と接続しました。この興味深いセットアップは、基本的な疑問を呼び起こします。モーダリティ間の意味の翻訳は射影層内で行われるのか、それともビジョンと言語の表現の整合が言語モデル内で起こるのでしょうか? 6つのCOCOのスーパーカテゴリのサンプル画像に対するトップ5のマルチモーダルニューロン。出典:https://arxiv.org/pdf/2308.01544.pdf MITの著者によって発表された研究は、この400年以上の謎の解明と、これらの多様なモデルがどのように機能するのかを明らかにすることを目的としています。 まず、彼らは画像プロンプトが変換器の埋め込み空間に変換されても解釈可能な意味をエンコードしないことを発見しました。代わりに、異なるモダリティ間の翻訳は変換器内で行われます。 第二に、同じ意味を持つ画像とテキスト情報の両方を処理できる多モダルニューロンが、テキスト専用の変換器MLP内で発見されました。これらのニューロンは、視覚表現を言語に変換する上で重要な役割を果たしています。 最後に、そしておそらく最も重要な発見は、これらの多モダルニューロンがモデルの出力に因果的な影響を与えるということです。これらのニューロンを制御することで、画像のキャプションから特定の概念を除去することができ、コンテンツの多モダル理解における重要性が強調されます。 深層ネットワーク内の個々のユニットの内部構造に対するこの調査は、多くの情報を明らかにします。画像分類器の畳み込みユニットが色やパターンを検出し、後のユニットがオブジェクトのカテゴリを認識できるのと同様に、変換器でも多モダルニューロンが現れることがわかりました。これらのニューロンは、同じ意味を持つ画像とテキストに対して選択的です。 さらに、ビジョンと言語が別々に学習されている場合でも、多モダルニューロンが現れることがあります。彼らは効果的に視覚表現を統一されたテキストに変換することができます。異なるモダリティ間で表現を整列させるこの能力は、言語モデルがゲーム戦略の予測からタンパク質の設計に至るまで、さまざまな順序モデリングを必要とするさまざまなタスクにおいて、強力なツールとなります。

「Amazon EUデザインと建設のためにAmazon SageMakerで動作する生成AIソリューション」

アマゾンEUデザイン・コンストラクション(Amazon D&C)チームは、ヨーロッパとMENA地域全体でアマゾン倉庫を設計・建設するエンジニアリングチームですプロジェクトの設計と展開のプロセスには、アマゾンとプロジェクト固有のガイドラインに関するエンジニアリング要件についての情報リクエスト(RFI)の多くの種類が含まれますこれらのリクエストは、基本ラインの取得から簡単なものから始まります [...]

このAI研究は、ITオペレーション向けの新しい大規模言語モデルであるOwlを紹介します

自然言語処理(NLP)と人工知能(AI)の絶え間なく進化する風景の中で、大規模言語モデル(LLM)は、さまざまなNLPのタスクで驚くべき能力を示す強力なツールとして登場しました。しかし、現在のモデルには、ITオペレーションに特化した大規模言語モデル(LLM)が不足しているという重要なギャップがあります。このギャップは、この分野を特徴付ける独自の用語、手続き、文脈の複雑さによって課題が生じます。その結果、ITオペレーション内の複雑さを効果的にナビゲートし、対処するための専門のLLMを作成するという緊急の必要性が浮かび上がります。 ITの分野において、NLPとLLMの技術の重要性はますます高まっています。情報セキュリティ、システムアーキテクチャ、および他のITオペレーションの側面に関連するタスクには、ドメイン固有の知識と用語が必要です。従来のNLPモデルは、ITオペレーションの微妙なニュアンスを解読するのに苦労することがよくあり、専門の言語モデルへの需要が高まっています。 この課題に対処するために、研究チームはITオペレーションに特化した大規模言語モデル「Owl」を導入しました。この専門のLLMは、「Owl-Instruct」という注意深くキュレーションされたデータセットでトレーニングされており、情報セキュリティ、システムアーキテクチャなど、さまざまなIT関連のドメインをカバーしています。目標は、OwlにIT関連のタスクで優れた成績を収めるために必要なドメイン固有の知識を装備することです。 研究者たちは、OwlをOwl-Instructデータセットで自己指導戦略を実装してトレーニングしました。このアプローチにより、モデルはシングルターンとマルチターンのシナリオの両方をカバーする多様な指示を生成することができます。モデルのパフォーマンスを評価するために、チームは「Owl-Bench」というベンチマークデータセットを導入しました。これには、9つの異なるITオペレーションドメインが含まれています。 彼らは、タスク固有およびドメイン固有の表現を許可する「アダプタの混合」戦略を提案し、教師ありの微調整を容易にすることでモデルのパフォーマンスをさらに向上させました。TopK(·)は、すべてのLoRAアダプタの選択確率を計算し、確率分布に従って上位kのLoRAエキスパートを選択する選択関数です。アダプタの混合戦略は、トップkのエキスパートを活性化することによって、異なる入力文に対して言語感度のある表現を学習することです。 トレーニングデータの不足にもかかわらず、OwlはRandIndexで0.886、最高のF1スコアで0.894の比較可能なパフォーマンスを達成しています。RandIndexの比較の文脈では、Owlはドメイン内のログに広範にトレーニングされたLogStampと対比して、わずかなパフォーマンスの低下を示します。細かいレベルのF1比較の領域では、Owlは他のベースラインを大幅に上回り、以前に見たことのないログ内の変数を正確に識別する能力を示します。特筆すべきは、logPromptの基礎モデルはChatGPTであるということです。同一の基本設定の下でChatGPTと比較した場合、Owlはこのタスクで優れたパフォーマンスを発揮し、オペレーションとメンテナンスの領域で大規模モデルの堅牢な汎化能力を強調しています。 結論として、OwlはITオペレーションの領域における画期的な進歩を表しています。多様なデータセットで綿密にトレーニングされ、IT関連のベンチマークで厳密に評価された専門の大規模言語モデルです。この専門のLLMは、ITオペレーションの管理と理解の方法を革新します。研究者の業績は、ドメイン固有のLLMの需要に対応するだけでなく、効率的なITデータ管理と分析のための新たな可能性を開拓し、最終的にはITオペレーション管理の分野を前進させます。

「LLM Fine-Tuningの理解:大規模言語モデルを独自の要件に合わせる方法」

「Llama 2のような大規模言語モデル(LLM)の微調整技術の最新の進展を探索してくださいLow-Rank Adaptation(LoRA)やQuantized LoRA(QLoRA)などの技術が、新しい利用におけるモデルの適応を革新している方法を学びましょう最後に、人間のフィードバックからの強化学習による微調整が、LLMをより人間の価値観に近づける方法にどのように影響しているかを見てみましょう」

Amazon SageMakerで@remoteデコレータを使用してFalcon 7Bやその他のLLMを微調整する

今日、生成型AIモデルはテキスト要約、Q&A、画像やビデオの生成など、さまざまなタスクをカバーしています出力の品質を向上させるために、n-短期学習、プロンプトエンジニアリング、検索補完生成(RAG)およびファインチューニングなどの手法が使用されていますファインチューニングにより、これらの生成型AIモデルを調整して、ドメイン固有の改善されたパフォーマンスを達成することができます

🤗 Transformersにおけるネイティブサポートされた量子化スキームの概要

私たちは、トランスフォーマーでサポートされている各量子化スキームの利点と欠点を明確に示し、どれを選ぶべきかを判断するのに役立つ概要を提供することを目指しています。 現在、モデルの量子化は主に2つの目的で使用されています: 大きなモデルの推論をより小さなデバイスで実行すること 量子化モデルの上にアダプタを微調整すること 現時点で、2つの統合の取り組みが行われ、トランスフォーマーでネイティブにサポートされています:bitsandbytesとauto-gptqです。なお、🤗オプティマムライブラリでは他の量子化スキームもサポートされていますが、このブログ投稿では対象外です。 サポートされている各スキームの詳細については、以下で共有されているリソースのいずれかをご覧ください。また、ドキュメントの適切なセクションもご確認ください。 また、以下で共有されている詳細は、PyTorchモデルにのみ有効であり、TensorflowおよびFlax/JAXモデルについては現在のところ対象外です。 目次 リソース bitsandbyesとauto-gptqの利点と欠点 速度ベンチマークの詳細 結論と最終的な言葉 謝辞 リソース GPTQブログ投稿 – GPTQ量子化方法と使用方法について概説しています。 bitsandbytes 4ビット量子化ブログ投稿 – このブログ投稿では4ビット量子化と効率的なファインチューニング手法であるQLoRaについて紹介しています。 bitsandbytes 8ビット量子化ブログ投稿 –…

テキストから音声へ – 大規模な言語モデルのトレーニング

はじめに 音楽家の声コマンドをAIが受け取り、美しいメロディックなギターサウンドに変換する世界を想像してみてください。これはSFではありません。オープンソースコミュニティでの画期的な研究「The Sound of AI」の成果です。本記事では、「テキストからサウンドへ」というジェネレーティブAIギターサウンドの範囲内で、「ミュージシャンの意図認識」のための大規模言語モデル(LLM)の作成の道のりを探求します。このビジョンを実現するために直面した課題と革新的な解決策についても議論します。 学習目標: 「テキストからサウンド」のドメインでの大規模言語モデルの作成における課題と革新的な解決策を理解する。 声コマンドに基づいてギターサウンドを生成するAIモデルの開発において直面する主な課題を探求する。 ChatGPTやQLoRAモデルなどのAIの進歩を活用した将来のアプローチについて、ジェネレーティブAIの改善に関する洞察を得る。 問題の明確化:ミュージシャンの意図認識 問題は、AIが音楽家の声コマンドに基づいてギターサウンドを生成できるようにすることでした。例えば、音楽家が「明るいギターサウンドを出してください」と言った場合、ジェネレーティブAIモデルは明るいギターサウンドを生成する意図を理解する必要があります。これには文脈とドメイン特有の理解が必要であり、一般的な言語では「明るい」という言葉には異なる意味がありますが、音楽のドメインでは特定の音色の品質を表します。 データセットの課題と解決策 大規模言語モデルのトレーニングには、モデルの入力と望ましい出力に一致するデータセットが必要です。ミュージシャンのコマンドを理解し、適切なギターサウンドで応答するために、適切なデータセットを見つける際にいくつかの問題が発生しました。以下に、これらの問題の対処方法を示します。 課題1:ギターミュージックドメインのデータセットの準備 最初の大きな課題は、ギターミュージックに特化したデータセットが容易に入手できないことでした。これを克服するために、チームは独自のデータセットを作成する必要がありました。このデータセットには、音楽家がギターサウンドについて話し合う会話が含まれる必要がありました。Redditの議論などのソースを利用しましたが、データプールを拡大する必要があると判断しました。データ拡張、BiLSTMディープラーニングモデルの使用、コンテキストベースの拡張データセットの生成などの技術を使用しました。 課題2:データの注釈付けとラベル付きデータセットの作成 2番目の課題は、データの注釈付けを行い、ラベル付きのデータセットを作成することでした。ChatGPTなどの大規模言語モデルは一般的なデータセットでトレーニングされることが多く、ドメイン固有のタスクに対してファインチューニングが必要です。例えば、「明るい」という言葉は、光や音楽の品質を指す場合があります。チームは、正しい文脈をモデルに教えるために、Doccanoという注釈付けツールを使用しました。ミュージシャンは楽器や音色の品質に関するラベルをデータに注釈付けしました。ドメインの専門知識が必要であるため、注釈付けは困難でしたが、チームはデータを自動的にラベル付けするためにアクティブラーニングの手法を一部適用し、これに対処しました。 課題3:MLタスクとしてのモデリング – NERアプローチ 適切なモデリングアプローチを決定することもまた、別のハードルでした。トピックまたはエンティティの識別として見るべきでしょうか?チームは、モデルが音楽に関連するエンティティを識別して抽出できるNamed Entity Recognition(NER)を採用しました。spaCyの自然言語処理パイプライン、HuggingFaceのRoBERTaなどのトランスフォーマーモデルを活用しました。このアプローチにより、ジェネレーティブAIは音楽のドメインにおける「明るい」や「ギター」といった単語の文脈を認識できるようになりました。 モデルトレーニングの課題と解決策…

「T2I-Adapter-SDXL:小型で効率的な制御モデルに出会ってください」

T2I-アダプタは、完全な再学習を必要とせずにテキストから画像へのモデルを強化するプラグアンドプレイツールであり、ControlNetなどの代替手法よりも効率的です。内部の知識を外部の信号と整合させ、正確な画像編集を行います。ControlNetとは異なり、T2I-アダプタはノイズ除去プロセス中に一度だけ実行されるため、画像の生成を遅くすることなく、より速く効率的な解決策を提供します。 モデルのパラメータとストレージの要件は、この利点を明確に示しています。たとえば、ControlNet-SDXLは1,251億のパラメータと2.5 GBのストレージをfp16形式で提供しています。対照的に、T2I-Adapter-SDXLはパラメータ(7,900万)とストレージ(158 MB)を大幅に削減し、それぞれ93.69%と94%の削減を実現しています。 https://huggingface.co/blog/t2i-sdxl-adapters DiffusersチームとT2I-アダプタの研究者との最近の共同研究により、Stable Diffusion XL(SDXL)でのT2I-アダプタのサポートが実現しました。この共同研究では、SDXL上でのT2I-アダプタのスクラッチトレーニングに焦点を当て、スケッチ、キャニー、ラインアート、深度、オープンポーズなどのさまざまな条件要素において有望な結果をもたらしました。 T2I-Adapter-SDXLのトレーニングには、LAION-Aesthetics V2からの300万枚の高解像度の画像テキストペアが使用され、トレーニング設定では20,000-35,000ステップ、バッチサイズ128(データパラレルで単一のGPUバッチサイズ16)、定数学習率1e-5、混合精度(fp16)が指定されました。これらの設定は、速度、メモリ効率、画像品質のバランスを取り、コミュニティでの利用を容易にします。 Diffusersフレームワーク内でのT2I-Adapter-SDXLの利用は、一連のステップを通じて容易に行えます。まず、diffusers、controlnet_aux、transformers、accelerateなどの必要な依存関係をインストールする必要があります。次に、T2I-Adapter-SDXLを使用した画像生成プロセスは、適切な制御形式の条件画像を準備し、これらの画像とプロンプトをStableDiffusionXLAdapterPipelineに渡すという2つのステップで主に行われます。 実際の例では、Lineart Adapterがロードされ、入力画像に対してラインアートの検出が行われます。その後、定義されたプロンプトとパラメータを使用して画像生成が開始され、”adapter_conditioning_scale”や”adapter_conditioning_factor”などの引数を介して適用される条件の範囲をユーザーが制御できます。 結論として、T2I-アダプタは、事前学習済みのテキストから画像へのモデルを微調整する計算上の課題に対処する魅力的な代替手段を提供します。その小さなサイズ、効率的な動作、簡単な統合性により、さまざまな条件での画像生成のカスタマイズと制御に貢献し、人工知能の創造性とイノベーションを促進する貴重なツールとなります。

Find the right Blockchain Investment for you

Web 3.0 is coming, whether buy Coins, NFTs or just Coding, everyone can participate.

Advertising with us