事前トレーニングのコンテキストがすべてをカバーします

美とファッションのエキスパートが教える、事前トレーニングの完全ガイド

モダンなトランスフォーマーモデルの根幹となる動力は、それに関連するデータに大きく由来し、強力なコンテキスト学習能力を可能にしています。

生成型人工知能とその人気のあるトランスフォーマーモデルは、最近ではどこでも広告され、新しいモデルが毎時リリースされています(詳細はAIのインフレーションを参照)。この急速に進化するAIの分野では、これらのモデルがもたらす価値の可能性は無限に思えます。ChatGPTなどの大型言語モデル(LLM)は、すでにエンジニアのリソースの一部となっており、作家たちはこれらを記事の裏付けとして利用し、デザイナーはコンピュータビジョンモデルの成果物からインスピレーションを得たり、最初の視覚的な表現を作ったりしています。

これらの印象的なトランスフォーマーモデルの力の源は、魔術ではなく何なのでしょうか?

しかし、快挙と有用性は素晴らしく、生成型AIは生産性を高めますが、モダンな機械学習モデル(LLMやVisionTransformersなど)は実際には魔法を行っているわけではありません(機械学習や統計モデル一般は魔法ではないという事実と同様)。モデルの類まれな能力は魔法のように見えるかもしれず、一部の専門家はモデルの幻想について語ることさえありますが、それでもすべてのモデルの基礎は数学と統計確率(ときには複雑でも、やはり数学)です。これによって、基本的な問いが生じます。これらの印象的なトランスフォーマーモデルの力の源は、魔術ではなく何なのでしょうか?

Figure 1: Showcasing that ChatGPT (using GPT4) points towards its “advanced technology” and “extensive training” as the main performance drivers.

すべてのモデルの基盤はデータです

(統計的または機械学習の)すべてのモデルに共通して言えることですが、後のモデルのパフォーマンスに最も大きな影響を与えるのはトレーニングデータです。モデルが学習するべき関係性を反映した高品質なデータの量がない場合、トレーニングの対象となるものがなく、結果としてモデルのパフォーマンスは低下します(ゴミインゴミアウトという有名な原則)。このデータモデリングの基本原則は何年たっても変わっていません。革新的な新しいトランスフォーマーモデルの背後には、まず第一にデータというものがあります。それは、そのデータの品質、およびコンテキストによって決まります…

We will continue to update VoAGI; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more