「Colabノートブックで自分のLlama 2モデルを微調整する」

Fine-tuning your Llama 2 model in a Colab notebook.

LLMファインチューニングの実践的な紹介

著者による画像

LLaMA v1のリリースに伴い、アルパカ、ビクーニャ、ウィザードLMなど、ファインチューニングされたモデルのカンブリア爆発が見られました。このトレンドは、OpenLLaMA、ファルコン、XGenなどの商業利用に適したライセンスを持つ独自のベースモデルを立ち上げるさまざまな企業によるリリースを促しました。Llama 2のリリースでは、両方の側面のベストな要素が組み合わされ、効率的なベースモデルとより許容性の高いライセンスが提供されています。

2023年の前半には、API(OpenAI APIなど)を使用して、大規模言語モデル(LLM)に基づくインフラストラクチャを作成するための広範な使用が広まりました。LangChainやLlamaIndexなどのライブラリがこのトレンドに重要な役割を果たしました。年の後半に移るにつれて、これらのモデルのファインチューニングが標準的な手順となる見込みです。このトレンドは、様々な要因によって推進されています:コスト削減の可能性、機密データの処理能力、ChatGPTやGPT-4などの有名なモデルを特定のタスクで超える性能を開発する可能性など。

この記事では、なぜファインチューニングが機能するのか、Google Colabノートブックで実装して独自のLlama 2モデルを作成する方法について見ていきます。通常通り、コードはColabとGitHubで利用できます。

🔧 LLMファインチューニングの背景

著者による画像

LLMは、大量のテキストコーパスに対して事前学習されます。Llama 2の場合、トレーニングセットの構成については、トークンの2兆個という長さ以外にはほとんど知られていません。比較すると、BERT(2018年)は「ただ」BookCorpus(8億単語)と英語のWikipedia(25億単語)で訓練されました。経験から言えば、これは非常に費用がかかり、時間のかかるプロセスで、ハードウェアの問題も多いです。詳細については、OPT-175Bモデルの事前訓練に関するMetaのログブックを読むことをおすすめします。

事前学習が完了すると、Llama 2などの自己回帰モデルは、シーケンス内の次のトークンを予測することができます。しかし、これだけでは…

We will continue to update VoAGI; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more

人工知能

ピーター・マッキー、Sonarの開発者担当責任者-インタビューシリーズ

ピーター・マッキーはSonarのDeveloper Relationsの責任者です Sonarは、悪いコードの1兆ドルの課題を解決するプラットフォー...

人工知能

Aaron Lee、Smith.aiの共同設立者兼CEO - インタビューシリーズ

アーロン・リーさんは、Smith.aiの共同創業者兼CEOであり、AIと人間の知性を組み合わせて、24時間365日の顧客エンゲージメン...

人工知能

「コーネリスネットワークスのソフトウェアエンジニアリング担当副社長、ダグ・フラーラー氏 - インタビューシリーズ」

ソフトウェアエンジニアリングの副社長として、DougはCornelis Networksのソフトウェアスタック全体、Omni-Path Architecture...

人工知能

「ナレ・ヴァンダニャン、Ntropyの共同創設者兼CEO- インタビューシリーズ」

Ntropyの共同創設者兼CEOであるナレ・ヴァンダニアンは、開発者が100ミリ秒未満で超人的な精度で金融取引を解析することを可...

機械学習

「機械学習 vs AI vs ディープラーニング vs ニューラルネットワーク:違いは何ですか?」

テクノロジーの急速な進化は、ビジネスが効率化のために洗練されたアルゴリズムにますます頼ることで、私たちの日常生活を形...

機械学習

「Prolificの機械学習エンジニア兼AIコンサルタント、ノラ・ペトロヴァ – インタビューシリーズ」

『Nora Petrovaは、Prolificの機械学習エンジニア兼AIコンサルタントですProlificは2014年に設立され、既にGoogle、スタンフ...