中国からの新しいAI研究が、RecycleGPTを紹介しましたRecycleGPTは、完全なモデルを複数のステップで実行せずに、事前生成されたモデルの状態をリサイクルすることで、高速なデコーディングスピード(1.4倍)を持つ生成言語モデルです

A new AI research from China introduced RecycleGPT, a language generation model that achieves high decoding speed (1.4x) by recycling the state of pre-generated models without running the complete model in multiple steps.

広範な応用領域で満足のいくテキストを作成する際、大規模言語モデル(LLM)は自然言語生成において画期的な役割を果たしています。100B以上のパラメータを持つモデルにスケーリングすることでパフォーマンスが大幅に向上しますが、モデルサイズが大きくなると、1つのデコーディングステップを完了するために必要な時間も増えます。大規模なモデルは膨大な計算を必要とし、メモリのフットプリントも大きく、どちらもLLMの遅い推論に大きく貢献しています。KVキャッシュ、トレーニングされたモデルのパラメータ、推論に必要な一時的な状態のメモリ要件は非常に大きいです。

LLMにおけるトークン生成は、システムのメモリアクセス速度の遅さのために遅くなります。各トークンを生成するために必要な時間は、モデルの総パラメータ数とほぼ相関します。

効果的な推論を行うためには、いくつかの手法が提案されています。これらの研究の基本的な焦点は、メモリ使用量を最小化し、メモリトラフィックの混雑を緩和することです。無錫国立スーパーコンピューティングセンターと清華大学による新しい研究では、トークン生成を最大化し、メモリ処理の予算を一定に保つための効率的なデコーディング技術について調査しています。彼らはRecycleGPTという新しい言語モデルアーキテクチャを導入し、以前に作成されたモデルの状態を再利用できるようにしています。

彼らの戦略は、以前に生成された状態に基づいて次のいくつかのトークンを予測する新しい再利用可能なモジュールを元の言語モデルに組み込むことです。再利用可能なモジュールは、トランスフォーマーベースの複数のレイヤーから構成されており、予測を行う際により良い表現が可能です。RecycleGPTは、推論中に様々な方法で従来のデコーディング技術と組み合わせることができます。この研究では、循環的に使用されており(つまり、2つのトークンを生成するためにはモデル全体を1回実行する必要があります)、他の方法についての調査は将来の研究に委ねられています。再利用可能なモジュールの目的は、デコーディングプロセスの高速化であり、そのモジュールは簡素なアーキテクチャにもかかわらず、文脈情報の効率的な表現と正確な予測を生成することができました。

研究チームはRecycleGPTをいくつかの業界基準と比較しました。その結果、モデルはパラメータ数がわずか15%増加するだけで、現行の最先端の言語モデルよりも1.4倍高速であり、同様のパフォーマンスを維持しています。研究者たちは近々、RecycleGPTの異なるサイズのモデルを発表する予定です。

適応性と拡張性の高さから、当社の再利用技術はさまざまな事前学習モデルと組み合わせて使用することができます。また、再利用可能なモジュールの作成技術やサイズは、必要な高速化パフォーマンスに到達するために変更することができます。

We will continue to update VoAGI; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more

AI研究

マイクロソフトリサーチがBatteryMLを紹介:バッテリー劣化における機械学習のためのオープンソースツール

リチウムイオン電池は、高いエネルギー密度、長いサイクル寿命、低い自己放電率のおかげで、現代のエネルギー蓄積の要となっ...

機械学習

適切なバランスを取る:機械学習モデルにおける過学習と過小適合の理解

機械学習の問題に取り組むすべての人は、自分のモデルができるだけ最適に動作することを望んでいますしかし、望むほどモデル...

機械学習

「Amazon SageMaker のルーティング戦略を使用して、リアルタイムの推論レイテンシを最小限に抑えましょう」

Amazon SageMakerは、リアルタイム推論のための機械学習(ML)モデルの展開を簡単に行えるだけでなく、AWS InferentiaなどのC...

AIニュース

Segmind APIsを使用した安定した拡散モデルのサーバーレスAPIの活用

紹介 現代のソフトウェア開発において、サーバーレスコンピューティングの登場により、アプリケーションの構築と展開の方法が...

データサイエンス

「AIデータ統合とコンテンツベースのマッピングによる未来のナビゲーション」

この記事では、AIデータ統合とコンテンツベースのマッピングが企業がより良いデータ駆動型の未来を築くのにどのように役立つ...

機械学習

Amazon SageMaker Canvasを使用して、ノーコードの機械学習を活用して、公衆衛生の洞察をより迅速にキャプチャーしましょう

公衆衛生機関は、さまざまな種類の疾病、健康のトレンド、危険因子に関する豊富なデータを保有しています彼らのスタッフは、...