アリババグループによるこの論文では、FederatedScope-LLMという包括的なパッケージが紹介されていますこれは、フェデレーテッドラーニングでLLMを微調整するためのものです

This paper by Alibaba Group introduces a comprehensive package called FederatedScope-LLM for fine-tuning LLM in federated learning.

今日、Hugging Faceのようなプラットフォームは、AI研究者から機械学習の経験が限られている人まで、さまざまなエンティティのために事前学習された大規模言語モデル(LLM)にアクセスし、活用することを容易にしました。似たようなタスクに取り組む複数の組織やエンティティが、プライバシー規制により直接ローカルデータを交換できない場合、フェデレーテッドラーニング(FL)は、これらのエンティティからの集合データを利用するための優れた解決策として浮上します。FLはまた、強力なプライバシー保護を提供し、モデルのアイデアを安全に保ち、異なる方法を使用してカスタマイズされたモデルを作成することができます。

この研究では、データセットの前処理、フェデレーテッドファインチューニングの実行またはシミュレーション、およびフェデレーテッド大規模言語モデル(LLM)のファインチューニングのコンテキストでのパフォーマンス評価など、包括的なエンドツーエンドのベンチマーキングパイプラインを確立し、さまざまな能力デモンストレーションの目的のために設計されています。

上記の画像はFS-LLMのアーキテクチャを示しており、LLMBENCHMARKS、LLM-ALGZOO、LLM-TRAINERの3つの主要モジュールで構成されています。チームは、フェデレーテッドパラメータ効率の高いファインチューニング(PEFT)アルゴリズムの堅牢な実装と、将来の拡張を容易にする多目的プログラミングインターフェースを開発しました。これにより、クローズドソースLLMを扱う場合でも、最小限の通信および計算オーバーヘッドでLLMを効果的にフェデレーテッドラーニング(FL)シナリオで動作させることができます。

詳しいチュートリアルは彼らのウェブサイトで提供されています:federatedscope.io

FederatedScopeはFederatedScope PlaygroundまたはGoogle Colabを介してお試しください。

彼らのアプローチは、リソース制約下でLLMのファインチューニングを行うための加速技術とリソース効率の高い戦略を組み込んでおり、LLMを個別化されたフェデレーテッドラーニング設定での応用などの異分野研究のための柔軟なプラグイン可能なサブルーチンも提供しています。

この研究では、最新のパラメータ効率の高いファインチューニングアルゴリズムを使って、フェデレーテッドコンテキスト内でのFS-LLMの効果を検証し、高度なLLMのベンチマークを確立しています。これらの実験結果から得られた知見に基づき、FLおよびLLMコミュニティの将来の研究方向についていくつかの有望な方向性を示しています。

We will continue to update VoAGI; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more

人工知能

AIパワーを活用した機会の開放-イギリス

Googleの2023年の経済的影響報告書では、AIがイギリスの経済に与える潜在的な影響を理解するために取り組んでいますこの報告...

データサイエンス

LLMs (Language Models)による電子メール効率化の次なるフロンティア

紹介 人工知能(AI)は、特に大規模な言語モデル(LLM)の台頭のおかげで、過去数年間で大きく成長しました。豊富な人間の言...

機械学習

グラフの復活:グラフの年ニュースレター2023年春

今日のナレッジグラフ、グラフデータベース、グラフアナリティクス、グラフAIの現在地と今後の方向性に関するニュースと分析...

データサイエンス

「ワードエンベディング:より良い回答のためにチャットボットに文脈を与える」

ワードエンベディングとChatGPTを使用してエキスパートボットを構築する方法を学びましょうワードベクトルの力を活用して、チ...

データサイエンス

ユーザーフィードバック - MLモニタリングスタックの欠けている部分

「AIモデルを数ヶ月もかけて実装し、何百万円も投資してみたけれど、誰も使ってくれないことって経験ありますか?採用の課題...

AI研究

アリババAI研究所が提案する「Composer」は、数十億の(テキスト、画像)ペアで訓練された、巨大な(50億パラメータ)コントロール可能な拡散モデルです

現在、テキストベースの生成画像モデルは、多様な写真のような画像を生成することができるようになりました。最近の多くの取...