大規模言語モデル:新たなモーアの法則?

大規模言語モデル:モーアの法則再考?

数日前、MicrosoftとNVIDIAは「世界最大かつ最もパワフルな生成言語モデル」と称される、Megatron-Turing NLG 530BというTransformerベースのモデルを発表しました。

これは、間違いなく機械学習エンジニアリングの印象的なデモンストレーションです。しかし、このメガモデルのトレンドに興奮すべきでしょうか?私自身はそう思いません。以下にその理由を説明します。

これがディープラーニングの脳です

研究者は、人間の脳が平均して860億個のニューロンと100兆個のシナプスを持つと推定しています。言語に特化しているわけではないことは明らかです。興味深いことに、GPT-4は約100兆個のパラメータを持つ予定です…この例えがどれほど不正確かもしれませんが、人間の脳と同じくらいの大きさの言語モデルを構築することが最善の長期的なアプローチなのか疑問に思わないでしょうか?

もちろん、私たちの脳は進化の結果として何百万年もの間に生まれた驚異的なデバイスですが、ディープラーニングモデルは数十年しか存在していません。それでも、私たちの直感が何かが計算できないと感じるはずです。

ディープラーニング、深いポケット?

予想通り、巨大なテキストデータセットで5300億のパラメータを持つモデルをトレーニングするためには、相当なインフラストラクチャが必要です。実際に、MicrosoftとNVIDIAは数百台のDGX A100マルチGPUサーバーを使用しました。1台あたり199,000ドルで、ネットワーク機器やホスティングコストなども考慮すると、この実験を複製しようとする場合、1億ドル近く費やさなければなりません。それにつけてもフライドポテトはいかがでしょうか?

真剣に考えてみてください。どのようなビジネスケースを持つ組織が、ディープラーニングのインフラストラクチャに1億ドル、さらには1,000万ドルも費やす価値があるのでしょうか?ほとんどありません。では、これらのモデルは実際に誰のために存在するのでしょうか?

その暖かい感覚はGPUクラスターです

エンジニアリングの素晴らしさにもかかわらず、GPU上でのディープラーニングモデルのトレーニングは力技です。仕様書によると、各DGXサーバーは最大で6.5キロワット消費します。もちろん、データセンター(またはサーバールーム)には少なくとも同じくらいの冷却能力が必要です。あなたがスターク家であり、ウィンターフェルを冬の寒さから守る必要がある場合を除いて、これは別の問題です。

さらに、公衆の意識が気候変動や社会的責任の問題について高まるにつれ、組織は自らの炭素排出量を考慮する必要があります。2019年のマサチューセッツ大学の研究によれば、「GPU上でBERTをトレーニングすることは、アメリカ横断飛行とほぼ同等である」とされています。

BERT-Largeは3億4000万個のパラメータを持っています。Megatron-Turingの環境影響は計り知れません…私を知っている人たちは私を環境保護主義者とは呼ばないでしょうが、いくつかの数字は無視できません。

では?

Megatron-Turing NLG 530Bや次に登場するどんなビーストに興奮していますか?いいえ。追加のコスト、複雑さ、環境への影響を考えると、(比較的小さい)ベンチマークの改善がその価値に見合っているとは思いません。これらの巨大モデルの構築と宣伝が組織の機械学習の理解と採用に役立っていると思いますか?いいえ。

私は何のためにこれらを行っているのか疑問に思っています。科学のための科学?昔ながらのマーケティング?技術的な優位性?おそらくそれぞれの要素が少しずつ関与しているでしょう。それらに任せておきましょう。

代わりに、高品質な機械学習ソリューションを構築するために皆さんが利用できる実用的で実行可能な技術に焦点を当てましょう。

事前学習済みモデルを使用する

ほとんどの場合、カスタムのモデルアーキテクチャは必要ありません。カスタムのモデル(別のものですが)が必要な場合もありますが、それは専門家向けです。

始める良いポイントは、解決しようとしているタスクに対して事前学習されたモデルを探すことです(例えば、英語のテキストを要約するためのモデルなど)。

次に、自分のデータを予測するためにいくつかのモデルを素早く試してみるべきです。メトリクスがうまく機能するモデルがあれば、それで終わりです!より高い精度が必要な場合は、モデルの微調整を検討する必要があります(これについては後述します)。

小さなモデルを使用する

モデルを評価する際には、必要な精度を提供できる最も小さいモデルを選ぶべきです。予測が速くなり、トレーニングと推論に必要なハードウェアリソースも少なくなります。節約は大いに役立ちます。

これもまた新しいことではありません。コンピュータビジョンの実践者は、2017年にSqueezeNetが登場したことを覚えているでしょう。AlexNetと比較してモデルサイズを50倍に削減しながら、その精度を満たすか超えることに成功しました。なんて賢いんでしょう!

自然言語処理のコミュニティでも、転移学習の技術である知識蒸留など、サイズを縮小する取り組みが進んでいます。DistilBERTは、おそらく最も広く知られている成果でしょう。元のBERTモデルと比較して、言語理解の97%を保持しながら、40%小さく、60%高速化されています。こちらで試すことができます。同じアプローチが他のモデルにも適用されており、例えばFacebookのBARTもあります。こちらでDistilBARTを試すことができます。

ビッグサイエンスプロジェクトの最近のモデルも非常に印象的です。研究論文に含まれているこのグラフでもわかるように、彼らのT0モデルはGPT-3を多くのタスクで上回りながら、16倍小さいです。

こちらでT0を試すことができます。こういった研究がもっと必要なのです!

モデルの微調整

モデルを専門化する必要がある場合、ゼロからトレーニングする理由はほとんどありません。代わりに、自分自身のデータに対してわずかなエポックだけトレーニングする、つまり微調整するべきです。データが少ない場合は、これらのデータセットのいずれかを使って始めることができるでしょう。

  • 収集、保存、クリーニング、注釈付けするデータが少なくなる
  • 実験と反復が速くなる
  • 本番で必要なリソースが少なくなる

つまり、時間とお金とハードウェアリソースを節約するのです!

チュートリアルが必要な場合は、Hugging Faceのコースがすぐに始められます。

クラウドベースのインフラストラクチャの利用

好きであろうとなかろうと、クラウド企業は効率的なインフラストラクチャの構築方法を知っています。持続可能性の研究によれば、クラウドベースのインフラストラクチャはエネルギーや炭素の面で代替手段よりも効率的です。AWS、Azure、Googleをご覧ください。Earth.orgによれば、クラウドインフラストラクチャは完璧ではありませんが、[代替手段よりも]エネルギー効率的であり、環境に有益なサービスと経済成長を可能にしています。

クラウドは、利用の容易さ、柔軟性、従量課金といった点で多くの利点があります。また、思っていたよりも環境にやさしいです。GPUが不足している場合は、Amazon SageMakerを使用してHugging Faceモデルを微調整することを試してみましょう。これはAWSのマネージドサービスであり、機械学習における豊富な例が用意されています。

モデルの最適化

コンパイラから仮想マシンまで、ソフトウェアエンジニアは長い間、自分のコードを実行しているハードウェアに対して自動的に最適化するツールを使用してきました。

しかし、機械学習コミュニティはまだこのトピックに苦しんでおり、それは理にかなったことです。サイズと速度の最適化は、異常に複雑なタスクであり、次のような技術が関与しています。

  • トレーニングを高速化する専門のハードウェア(Graphcore、Habana)や推論を高速化する専用ハードウェア(Google TPU、AWS Inferentia)
  • プルーニング:予測結果にほとんどまたはまったく影響を与えないモデルパラメータを削除する
  • フュージョン:モデルレイヤーを統合する(例えば、畳み込みと活性化)
  • 量子化:モデルパラメータをより小さな値で保存する(例えば、32ビットではなく8ビット)

幸いなことに、OptimumというオープンソースのライブラリやInfinityというコンテナ化されたソリューションなど、自動化ツールが登場し始めています。これらは1ミリ秒のレイテンシでTransformerの精度を提供します。

結論

大型言語モデルのサイズは、過去数年間で10倍増加しています。これは別の「ムーアの法則」のように見えてきました。

私たちは以前にも同じ状況を経験しており、この道は収益の減少、高コスト、複雑さの増加、新たなリスクへとつながることを知っているはずです。指数関数は最後は上手くいきません。MeltdownやSpectreを覚えていますか?AIにおいてそれがどのようなものかを知りたいと思いますか?

兆パラメータモデルに追いつく代わりに(賭けをしてください)、すべての開発者が実世界の問題を解決するために使用できる実用的で効率的なソリューションを構築する方が、より良い結果になるのではないでしょうか?

Hugging Faceがお手伝いできるようであれば、[email protected]までご連絡ください(リクルーターやセールスのプレゼンテーションはご遠慮ください)。

We will continue to update VoAGI; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more

機械学習

「Google LLMは、ドキュメントを読むだけでツールをマスターできる」

急速な技術の進歩の時代において、人工知能(AI)は時折、人間のような驚異的な進歩を遂げています。Googleの研究者たちは画...

データサイエンス

「LangChainエージェントを使用してLLMをスーパーチャージする方法」

「LangChainエージェントを使用すると、アプリケーション内でLarge Language Modelを拡張し、外部の情報源にアクセスしたり、...

機械学習

「マルチタスクアーキテクチャ:包括的なガイド」

多くのタスクを実行するためにニューラルネットワークを訓練することは、マルチタスク学習として知られていますこの投稿では...

機械学習

マイクロソフトAIがLLMLinguaを発表:大型言語モデル(LLM)の高速推論のためのユニークなクイック圧縮テクニックでプロンプトを圧縮

大規模言語モデル(LLM)は、その高い一般化能力と推論能力により、人工知能(AI)コミュニティを大きく押し上げています。こ...

AI研究

複雑なAIモデルの解読:パデュー大学の研究者が、ディープラーニングの予測を位相マップに変換

複雑な予測モデルの高度なパラメータ化の性質により、予測戦略の説明と解釈が困難です。研究者たちは、この問題を解決するた...

AIニュース

「OpenAIがユーザーエクスペリエンスを革新するために6つのエキサイティングなChatGPT機能を発表」

ChatGPTを開発した先進的な企業であるOpenAIは、6つのエキサイティングな新機能を追加し、ユーザーエクスペリエンスを向上さ...