Gradient Checkpointing、LoRA、およびQuantizationを使用して、単一のGPUにLLMをフィットさせてください

Gradient Checkpointing、LoRA、Quantizationを使って、単一のGPUにLLMをフィットさせてください

大規模な言語モデルの微調整を試みたことがある人は、GPUメモリを扱うのがいかに困難かを知っています。

「ランタイムエラー:CUDAエラー:メモリ不足」

このエラーメッセージは私の夜を悩ませています。

3B、7B、または13Bのパラメータモデルは大きく、微調整は時間がかかります。トレーニング中にメモリが不足すると、イライラする上にコストがかかることもあります。

しかし、心配しないでください、私が手助けします!

この記事では、次の3つのテクニックを使って、知っておく必要があるか、既に使っているかもしれない方法について説明します:Gradient Checkpointing、Low-Rank Adapters、およびQuantization

これらは、トレーニング中にメモリが不足するのを防ぎ、多くの時間を節約するのに役立ちます。

もしLLMの微調整に慣れていない場合は、私がBloom-3Bを「指輪物語」の本に対して微調整する過程を解説した記事があります。

個人データでLLMを微調整:「指輪物語」のストーリーテラーを作ろう

個人データでLLMを微調整できるようになりました。個人情報を管理しながらコントロールを維持できます…

VoAGI.com

さあ、始めましょう!

Amritanshu Sikdar氏の写真(Unsplash)

Gradient Checkpointing

Gradient Checkpointingは、ニューラルネットワークのトレーニング中に、最小限の層のみを保持するために動的計算を使用する技術です。

このプロセスを理解するためには、逆伝播がどのように行われ、プロセス全体でレイヤーがGPUメモリに保存されるかを理解する必要があります。

フォワードとバックワード伝播の基礎

フォワード伝播とバックワード伝播は、ディープニューラルネットワークのトレーニングの2つのフェーズです。

3Blue1Brown Youtubeチャンネルより

フォワードパスでは、入力がベクトル化され(画像をピクセルに変換し、テキストを埋め込みに変換する)、各要素は線形積和と活性化の連続を通じてニューラルネットワーク全体で処理されます…

We will continue to update VoAGI; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more

データサイエンス

「Adam Ross Nelsonによる自信のあるデータサイエンスについて」

データサイエンスの中で新たな分野が現れ、研究内容が理解しにくい場合は、専門家や先駆者と話すのが最善です最近、私たちは...

人工知能

「UVeyeの共同設立者兼CEO、アミール・ヘヴェルについてのインタビューシリーズ」

アミール・ヘヴァーは、UVeyeのCEO兼共同創設者であり、高速かつ正確な異常検出により、自動車およびセキュリティ産業に直面...

機械学習

「Prolificの機械学習エンジニア兼AIコンサルタント、ノラ・ペトロヴァ – インタビューシリーズ」

『Nora Petrovaは、Prolificの機械学習エンジニア兼AIコンサルタントですProlificは2014年に設立され、既にGoogle、スタンフ...

人工知能

「リオール・ハキム、Hour Oneの共同創設者兼CTO - インタビューシリーズ」

「Hour Oneの共同創設者兼最高技術責任者であるリオール・ハキムは、専門的なビデオコミュニケーションのためのバーチャルヒ...

人工知能

「シフトのCEOであるクリス・ナーゲル – インタビューシリーズ」

クリスはSiftの最高経営責任者です彼は、Ping Identityを含むベンチャー支援および公開SaaS企業のシニアリーダーシップポジシ...

人工知能

「クリス・サレンス氏、CentralReachのCEO - インタビューシリーズ」

クリス・サレンズはCentralReachの最高経営責任者であり、同社を率いて、自閉症や関連する障害を持つ人々のために優れたクラ...