アリババグループによるこの論文では、FederatedScope-LLMという包括的なパッケージが紹介されていますこれは、フェデレーテッドラーニングでLLMを微調整するためのものです
This paper by Alibaba Group introduces a comprehensive package called FederatedScope-LLM for fine-tuning LLM in federated learning.
今日、Hugging Faceのようなプラットフォームは、AI研究者から機械学習の経験が限られている人まで、さまざまなエンティティのために事前学習された大規模言語モデル(LLM)にアクセスし、活用することを容易にしました。似たようなタスクに取り組む複数の組織やエンティティが、プライバシー規制により直接ローカルデータを交換できない場合、フェデレーテッドラーニング(FL)は、これらのエンティティからの集合データを利用するための優れた解決策として浮上します。FLはまた、強力なプライバシー保護を提供し、モデルのアイデアを安全に保ち、異なる方法を使用してカスタマイズされたモデルを作成することができます。
この研究では、データセットの前処理、フェデレーテッドファインチューニングの実行またはシミュレーション、およびフェデレーテッド大規模言語モデル(LLM)のファインチューニングのコンテキストでのパフォーマンス評価など、包括的なエンドツーエンドのベンチマーキングパイプラインを確立し、さまざまな能力デモンストレーションの目的のために設計されています。
上記の画像はFS-LLMのアーキテクチャを示しており、LLMBENCHMARKS、LLM-ALGZOO、LLM-TRAINERの3つの主要モジュールで構成されています。チームは、フェデレーテッドパラメータ効率の高いファインチューニング(PEFT)アルゴリズムの堅牢な実装と、将来の拡張を容易にする多目的プログラミングインターフェースを開発しました。これにより、クローズドソースLLMを扱う場合でも、最小限の通信および計算オーバーヘッドでLLMを効果的にフェデレーテッドラーニング(FL)シナリオで動作させることができます。
- 「LangChain、Activeloop、そしてGPT-4を使用して、Redditのソースコードをリバースエンジニアリングするための分かりやすいガイド」
- コンテンツクリエーターに必要不可欠なChatGPTプラグイン
- PyTorch LSTMCell — 入力、隠れ状態、セル状態、および出力の形状
詳しいチュートリアルは彼らのウェブサイトで提供されています:federatedscope.io
FederatedScopeはFederatedScope PlaygroundまたはGoogle Colabを介してお試しください。
彼らのアプローチは、リソース制約下でLLMのファインチューニングを行うための加速技術とリソース効率の高い戦略を組み込んでおり、LLMを個別化されたフェデレーテッドラーニング設定での応用などの異分野研究のための柔軟なプラグイン可能なサブルーチンも提供しています。
この研究では、最新のパラメータ効率の高いファインチューニングアルゴリズムを使って、フェデレーテッドコンテキスト内でのFS-LLMの効果を検証し、高度なLLMのベンチマークを確立しています。これらの実験結果から得られた知見に基づき、FLおよびLLMコミュニティの将来の研究方向についていくつかの有望な方向性を示しています。
We will continue to update VoAGI; if you have any questions or suggestions, please contact us!
Was this article helpful?
93 out of 132 found this helpful
Related articles
- 「トルコ地震ツイートに対する感情分析」
- PyTorch LSTM — 入力、隠れ状態、セル状態、および出力の形状
- 『3Dディープラーニングへの道:Pythonでの人工ニューラルネットワーク』
- 「Google AIの新しいパラダイムは、多段階の機械学習MLアルゴリズムの組成コストを削減して、強化されたユーティリティを実現する方法は何ですか」
- 大規模言語モデル(LLM)と潜在ディリクレ配分(LDA)アルゴリズムを用いたドキュメントのトピック抽出
- 「機械学習チートシートのためのScikit-learn」
- 「FLM-101Bをご紹介します:1010億パラメータを持つ、オープンソースのデコーダのみのLLM」