「Llama 2に複数のLoRAアダプタを組み合わせる」

「Llama 2で複数のLoRAアダプタを組み合わせる方法」

新しいアダプタの微調整なしでLLMにスキルを追加する

作者による画像 - Pixabayの画像を使用して作成

事前にトレーニング済みの大規模言語モデル(LLM)を異なるタスクに完全に微調整するのは非常に高価です。 代わりに、LLMのパラメータを固定し、LoRAアダプタを介して追加された数百万のトレーニング可能なパラメータのみを微調整することができます。

<pつまり、モデルを特定のタスクを実行するようにするには、アダプタを微調整するだけで十分です。 llmが実行する各タスクに対して1つのアダプタを微調整できます。<pただし、複数のアダプタを組み合わせて単一のマルチタスクアダプタを作成することはできるでしょうか?

<pたとえば、翻訳用のアダプタと要約用のアダプタがある場合、llmは翻訳と要約の両方を行えるように組み合わせることはできるでしょうか?

<pこの記事では、複数のloraアダプタを1つのマルチタスクアダプタに組み合わせる方法を紹介します。 p="" 組み合わせに使用されるアダプタと同じくらい優れていることがわかるでしょう。<pllama 2="" 2を作成することができます。<pまた、この記事で説明されているすべてのコードを実行できるノートブックも実装しました。 p="" こちらで見つけることができます:

ノートブックを入手する(#30)

Llama 2に複数のアダプタを追加する

<pアダプタを組み合わせる前に、ベースllmにそれらを追加する必要があります。

<p追加したいアダプタがベースllm、つまりllama 2="" 7bに対して微調整されていることを確認する必要があります。="" href="https://www.voagi.com/bottleneck-adapter-efficient-model-finetuning.html" この情報はアダプタディレクトリにある「adapter_config.json」というファイルに記載されています。="" たとえば、kaitchup/Llama-2–7B-oasstguanaco-adapter(MITライセンス)の場合、「adapter_config.json」には次のデータが含まれています:

{  "auto_mapping": null,  "base_model_name_or_path": "meta-llama/Llama-2-7b-hf",  "bias": "none",  "fan_in_fan_out": false,  "inference_mode": true,  "init_lora_weights": true,  "layers_pattern": null…

</pアダプタを組み合わせる前に、ベースllmにそれらを追加する必要があります。

</pたとえば、翻訳用のアダプタと要約用のアダプタがある場合、llmは翻訳と要約の両方を行えるように組み合わせることはできるでしょうか?</pただし、複数のアダプタを組み合わせて単一のマルチタスクアダプタを作成することはできるでしょうか?

We will continue to update VoAGI; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more