MITとCUHKの研究者たちは、LLM(Long Context Large Language Models)に対して効率的なファインチューニングAIアプローチであるLongLoRA(Long Low-Rank Adaptation)を提案しています

MITとCUHKの研究者が提案する効率的なファインチューニングAIアプローチ「LongLoRA(Long Low-Rank Adaptation)」は、LLM(Long Context Large Language Models)に対して革新的な手法です

Large language models(LLMs)の導入により、人工知能の領域で大きな進歩がもたらされました。自然言語処理(NLP)、自然言語理解(NLU)、自然言語生成(NLG)の概念に基づいて、LLMsは驚異的な能力を持って世界を席巻しています。LLaMAとLLaMA2などのよく知られているモデルは、自然言語の理解と生成に非常に効果的なツールとなっています。

ただし、LLMには制約があり、LLaMAの最大コンテキストサイズは2048トークン、LLaMA2の最大コンテキストサイズは4096トークンです。これにより、長いドキュメントや長いクエリを処理する必要があるタスクに対しては苦労します。シーケンスを長く訓練することでコンテキストウィンドウを拡張する方法もありますが、これには計算上の困難が伴い、リソースを過度に消費する可能性があります。

ローランク適応(LoRA)は、コンテキストウィンドウを拡張するための簡単な方法です。LoRAは、自己注意ブロックの線形射影層を変更するために計算効率が高く、トレーニング可能なパラメータの数を制限した低ランク行列を使用します。ただし、長いコンテキストモデルを単純なローランク適応で訓練することは、経験的な研究によるとあまり効果的ではないようです。通常の自己注意メカニズムにより、コンテキストの拡張が進むにつれ、混乱が生じ、効果が低下します。

制約を克服するために、研究チームはLongLoRAという効率的な微調整手法を開発しました。この手法は、過度な計算コストをかけることなく、事前学習済みの大規模言語モデルのコンテキストサイズを効果的に拡張するために開発されました。LongLoRAは、LLaMA2などの事前学習済みLLMのコンテキストウィンドウを拡大するプロセスを2つの重要な方法で高速化します。

まず、LongLoRAは、微調整中に有効なコンテキスト拡張を実現するために、シフトショートアテンション(S2-Attn)を利用します。LLMが推論中にうまく機能するためには、依然として密なグローバルアテンションが必要ですが、微調整プロセスでは疎なローカルアテンションを利用することで効果的かつ迅速に実行することができます。従来のアテンション技術を使った微調整と比較して、S2-Attnはコンテキストの拡張を可能にし、計算上の節約につながります。なぜなら、トレーニング中に実装するための2行のコードだけで済むオプションの部分なので、推論とは別に容易に統合できるからです。

次に、LongLoRAはパラメータの効果的なコンテキスト拡張技術に重点を置いて微調整手順を再検討します。研究チームは、モデルにトレーニング可能な埋め込み層と正規化層がある場合、LoRAはコンテキストの拡張に優れたパフォーマンスを発揮することを発見しました。この認識は、計算負荷を大幅に増やすことなくコンテキストを拡張するために重要な要素です。

7B/13Bから70BまでのサイズのLLaMA2モデルに対して、LongLoRAはさまざまなタスクに対して注目すべき経験的な結果を示しました。1つの8 x A100 GPUコンピュータでは、この手法によりLLaMA2 7Bのコンテキストを4kトークンから100kトークン、LLaMA2 70Bのコンテキストを32kトークンまで拡大することができます。これにより、元のモデル構造を維持しながら、既存の使用方法やFlashAttention-2などのツールと互換性があります。

また、実際のLongLoRAの使用を支援するために、LongQAというデータセットが開発されています。このデータセットには、広範なコンテキストを持つ3,000以上の質問-回答のペアが含まれています。このデータセットの提供により、LLMの機能を拡張したいと考えている学術研究者やプロフェッショナルにとって、LongLoRAの有用性が向上しています。

We will continue to update VoAGI; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more

機械学習

「初めに、AWS上でMONAI Deployを使用して医療画像AI推論パイプラインを構築しましょう!」

この記事では、MONAI Deploy App SDKで構築されたアプリケーションに再利用可能なMAPコネクタを作成する方法を紹介しますこれ...

AI研究

CMUとプリンストンの研究者がマンバを発表:多様なモードのディープラーニングアプリケーションにおいてトランスフォーマーの効率を超えるSSMアーキテクチャの画期的な進展

現代の機械学習において、ファウンデーションモデルは、大量のデータで事前に学習され、その後に下流のタスクに対して改変さ...

コンピュータサイエンス

ユーザーに扱える以上を提供する

「マイクロソフトの人工知能ファイルは、顧客にセキュリティ上の問題を引き起こしていますか?」

AI研究

MITの研究者は、ディープラーニングと物理学を組み合わせて、動きによって損傷を受けたMRIスキャンを修正する方法を開発しました

「この課題は、ぼやけたJPEG画像以上のものです医療画像の動きのアーティファクトを修正するには、より高度なアプローチが必...

データサイエンス

エントロピーを使用した時系列複雑性解析

すべてのデータサイエンティストはこれを知っています:Machine Learningの問題の解決における最初のステップは、データの探...