「Colabノートブックで自分のLlama 2モデルを微調整する」

Fine-tuning your Llama 2 model in a Colab notebook.

LLMファインチューニングの実践的な紹介

著者による画像

LLaMA v1のリリースに伴い、アルパカ、ビクーニャ、ウィザードLMなど、ファインチューニングされたモデルのカンブリア爆発が見られました。このトレンドは、OpenLLaMA、ファルコン、XGenなどの商業利用に適したライセンスを持つ独自のベースモデルを立ち上げるさまざまな企業によるリリースを促しました。Llama 2のリリースでは、両方の側面のベストな要素が組み合わされ、効率的なベースモデルとより許容性の高いライセンスが提供されています。

2023年の前半には、API(OpenAI APIなど)を使用して、大規模言語モデル(LLM)に基づくインフラストラクチャを作成するための広範な使用が広まりました。LangChainやLlamaIndexなどのライブラリがこのトレンドに重要な役割を果たしました。年の後半に移るにつれて、これらのモデルのファインチューニングが標準的な手順となる見込みです。このトレンドは、様々な要因によって推進されています:コスト削減の可能性、機密データの処理能力、ChatGPTやGPT-4などの有名なモデルを特定のタスクで超える性能を開発する可能性など。

この記事では、なぜファインチューニングが機能するのか、Google Colabノートブックで実装して独自のLlama 2モデルを作成する方法について見ていきます。通常通り、コードはColabとGitHubで利用できます。

🔧 LLMファインチューニングの背景

著者による画像

LLMは、大量のテキストコーパスに対して事前学習されます。Llama 2の場合、トレーニングセットの構成については、トークンの2兆個という長さ以外にはほとんど知られていません。比較すると、BERT(2018年)は「ただ」BookCorpus(8億単語)と英語のWikipedia(25億単語)で訓練されました。経験から言えば、これは非常に費用がかかり、時間のかかるプロセスで、ハードウェアの問題も多いです。詳細については、OPT-175Bモデルの事前訓練に関するMetaのログブックを読むことをおすすめします。

事前学習が完了すると、Llama 2などの自己回帰モデルは、シーケンス内の次のトークンを予測することができます。しかし、これだけでは…

We will continue to update VoAGI; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more

人工知能

アーティスの創設者兼CEO、ウィリアム・ウーによるインタビューシリーズ

ウィリアム・ウーは、Artisseの創設者兼CEOであり、ユーザーの好みに基づいて写真を精密に変更する技術を提供していますそれ...

人工知能

『DeepHowのCEO兼共同創業者、サム・ジェン氏によるインタビューシリーズ』

ディープハウのCEO兼共同創設者であるサム・ジェンは、著名な投資家から支持される急速に進化するスタートアップを率いていま...

データサイエンス

「Seerの最高データオフィサーであるDr. Serafim Batzoglouによるインタビューシリーズ」

セラフィム・バツォグルはSeerのチーフデータオフィサーですSeerに加わる前は、セラフィムはInsitroのチーフデータオフィサー...

人工知能

ベイリー・カクスマー、ウォータールー大学の博士課程候補 - インタビューシリーズ

カツマー・ベイリーは、ウォータールー大学のコンピュータ科学学部の博士課程の候補者であり、アルバータ大学の新入教員です...

人工知能

「クリス・サレンス氏、CentralReachのCEO - インタビューシリーズ」

クリス・サレンズはCentralReachの最高経営責任者であり、同社を率いて、自閉症や関連する障害を持つ人々のために優れたクラ...

データサイエンス

「2023年にデータサイエンスFAANGの仕事をゲットする方法は?」

データサイエンスは非常に求められる分野となり、FAANG(Facebook、Amazon、Apple、Netflix、Google)企業での就職は大きな成...