「なぜより多くがより良いのか(人工知能において)」

なぜ多くがより良いのか(AIにおいて)

ニューラルネットワークの汎化性能について

少ない方が良い-Ludwig Mies van der Rohe多すぎる場合にのみ、少ない方が良い- Frank Loyd Wright

深層ニューラルネットワーク(DNN)は、機械学習の風景を根本的に変え、しばしば人工知能と機械学習の広範な分野と同義になっています。しかし、彼らの台頭は、彼らの共犯である確率的勾配降下法(SGD)なしでは想像もできなかったでしょう。

SGDは、その派生最適化アルゴリズムと共に、多くの自己学習アルゴリズムの核を形成しています。その核心はシンプルです:トレーニングデータを使用してタスクの損失を計算し、そのパラメータに関するこの損失の勾配を決定し、損失を最小化する方向にパラメータを調整します。

簡単に聞こえますが、実際のアプリケーションでは非常に強力です:SGDは、十分に表現力のあるアーキテクチャと組み合わせて使用される場合、あらゆる種類の複雑な問題とトレーニングデータに対して解決策を見つけることができます。特に、トレーニングデータ上でネットワークが完璧に動作するパラメータセットを見つけることが得意であり、これを補間領域と呼びます。しかし、ニューラルネットワークがよく汎化するためには、どのような条件の下で行われると考えられていますか?つまり、未知のテストデータ上で良いパフォーマンスを発揮するということです。

機械学習の中心には、汎化に向けた探求があります。DALL-Eが描いたイメージです。

ある意味では、ほとんど強力すぎるかもしれません:SGDの能力は、良い汎化をもたらすと期待されるトレーニングデータに限定されません。この影響力のある論文で示されているように、SGDは、ランダムにラベル付けされた一連の画像をネットワークが完璧に記憶することができます(メモリと汎化の間には深い関係があり、これについて以前に書いたことがあります)。ラベルと画像の内容の不一致があるため、これは挑戦的に見えるかもしれませんが、SGDで訓練されたニューラルネットワークにとっては驚くほど簡単です。実際、真のデータに適合させることよりも大きなチャレンジではありません。

この能力は、SGDで訓練されたNNが過学習のリスクを抱えていることを示しており、正則化手法(ノルム、早期終了、モデルサイズの縮小など)が過学習を回避するために重要になります。

古典的な統計学の観点からは、少ない方が良いので、より多い方が少ない、と簡潔に要約されています…

We will continue to update VoAGI; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more

人工知能

ディープAIの共同創業者兼CEO、ケビン・バラゴナ氏- インタビューシリーズ

ディープAIの創設者であるケビン・バラゴナは、10年以上の経験を持つプロのソフトウェアエンジニア兼製品開発者です彼の目標...

AIテクノロジー

アンソニー・グーネティレケ氏は、Amdocsのグループ社長であり、テクノロジー部門および戦略部門の責任者です- インタビューシリーズ

アンソニー・グーネティレーケは、Amdocsでグループ社長、テクノロジーと戦略担当です彼と企業戦略チームは、会社の戦略を策...

人工知能

ギル・ジェロン、Orca SecurityのCEO&共同創設者-インタビューシリーズ

ギル・ゲロンは、オルカ・セキュリティのCEO兼共同設立者ですギルは20年以上にわたりサイバーセキュリティ製品をリードし、提...

データサイエンス

「David Smith、TheVentureCityの最高データオフィサー- インタビューシリーズ」

デビッド・スミス(別名「デビッド・データ」)は、TheVentureCityのチーフデータオフィサーであり、ソフトウェア駆動型のス...

人工知能

「クリス・サレンス氏、CentralReachのCEO - インタビューシリーズ」

クリス・サレンズはCentralReachの最高経営責任者であり、同社を率いて、自閉症や関連する障害を持つ人々のために優れたクラ...

人工知能

「マーク・A・レムリー教授による生成AIと法律について」

データサイエンス内で新しい分野が現れ、研究内容が理解しにくい場合は、専門家やパイオニアと話すことが最善です最近、私た...