「GPT4の32Kを忘れてください:LongNetは10億トークンのコンテキストを持っています」

Forget about GPT4's 32K LongNet has a context of 1 billion tokens.

GPT-3とGPT-4の2048、4096、32768トークンのコンテキストの制限に疲れましたか?マイクロソフトはあなたに答えを持っているかもしれません(ポジティブな見方)

7月19日、マイクロソフトは、実用的に無制限のコンテキスト長を持つ大規模な言語モデルの開発において、大きな進歩と見なされている論文を発表しました。マイクロソフトは、理論的に10億トークンまでスケーリングできるトランスフォーマーモデルを提案・開発しました。これにより、大規模な言語モデルの実用的な使用例である「コンテキスト長制限」が取り除かれました。

この記事では、以下の内容を説明します。

  1. 大規模な言語モデル(LLM)
  2. 覚えていますか?コンテキストは重要です
  3. より大きなコンテキストを実現する方法
  4. 現在のLLM用ネットワーク
  5. スケーリングの難しさ
  6. マイクロソフトの解決策LongNet
  7. 分散トレーナー
  8. 1Bトークンへのスケーリングの結果と検証
  9. まとめ

それでは、始めましょう。

大規模な言語モデル(LLM)

大規模な言語モデルは、深層学習モデルであり、数百万、場合によっては数十億のパラメータを持っています。これらのモデルは一般的にインターネットからの「一般のテキスト」コーパスで訓練されます。このようなコーパスは最大で1兆のトークンを持つ場合があります(つまり、インターネット上に存在するテキストは、大規模な言語モデルの訓練に使用されました)。

与えられた文字列内の各単語が他の単語と接続された大きな行列を想像してみてください。簡単に言えば、これがセルフアテンションです。より強い関係を持つ単語や単語の配置に関心があります。なぜなら、弱い関係よりも次の単語をより良く予測できるからです。関係は3層深くても30層深くても、大局的な観点では問題ありません。重要なのは、セルフアテンションが(少なくとも一部では)次のトークンを決定することです。トークンは単語または単語の一部であり、文の機能的な単位の同義語としてよく使用されます。

したがって、大規模な言語モデルは、入力テキストを与えると、その地図に基づいて出力が生成される言語の地図を作成します。この地図は非常に複雑です。この地図は一般的に次のように表されます…

We will continue to update VoAGI; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more

人工知能

『ジュリエット・パウエル&アート・クライナー、The AI Dilemma – インタビューシリーズの著者』

『AIのジレンマ』は、ジュリエット・パウエルとアート・クライナーによって書かれましたジュリエット・パウエルは、著者であ...

AIニュース

Q&A:ブラジルの政治、アマゾンの人権、AIについてのGabriela Sá Pessoaの見解

ブラジルの社会正義のジャーナリストは、MIT国際研究センターのフェローです

人工知能

「UVeyeの共同設立者兼CEO、アミール・ヘヴェルについてのインタビューシリーズ」

アミール・ヘヴァーは、UVeyeのCEO兼共同創設者であり、高速かつ正確な異常検出により、自動車およびセキュリティ産業に直面...

人工知能

「マーク・A・レムリー教授による生成AIと法律について」

データサイエンス内で新しい分野が現れ、研究内容が理解しにくい場合は、専門家やパイオニアと話すことが最善です最近、私た...

人工知能

「Kognitosの創設者兼CEO、ビニー・ギル- インタビューシリーズ」

ビニー・ギルは、複数の役職と企業を横断する多様で幅広い業務経験を持っていますビニーは現在、Kognitosの創設者兼CEOであり...

人工知能

Diginiのスマートセンスの社長、ガイ・イエヒアブによるインタビューシリーズ

ガイ・イハイアヴ氏は、ビジネスの成功に最も重要な資産を保護するためにインターネット・オブ・シングス(IoT)の力を活用す...