活性化関数と非線形性:ニューラルネットワーク入門

ビューティーとファッションの世界への招待:美とファッションへの豊富な知識を持つエキスパートによる鮮やかで活気ある記事

ニューラルネットワークが(ほぼ)何でも学べる理由を説明する

Google DeepMindによる写真:https://www.voagi.com/mastering-deep-learning-approximating-nonlinearities-with-piecewise-estimations-part-1.html

背景

前の記事では、多層パーセプトロン(MLP)を紹介しました。MLPは単なる積み重ねられた相互接続されたパーセプトロンのセットであり、パーセプトロンとMLPについてはこの記事で詳しく説明します。

イントロ、パーセプトロン&アーキテクチャ:ニューラルネットワーク入門

ニューラルネットワークとその構成要素の紹介

levelup.gitconnected.com

次のような2つの隠れ層を持つMLPの例を以下に示します:

基本的な2つの隠れ層を持つマルチレイヤーパーセプトロン。図は著者作成です。

しかし、MLPの問題は、線形分類器しか適合できないことです。なぜなら、個々のパーセプトロンはステップ関数活性化関数として持っており、それは線形です:

最も単純なニューラルネットワークであるパーセプトロン。図は著者作成です。

そのため、パーセプトロンを積み重ねているように見えても、それは今日のニューラルネットワークとはあまり変わらず、通常の線形回帰とそれほど変わりません!

別の問題は、全体の定義域で完全に微分可能ではないことです。

それでは、どうすればいいでしょうか?

非線形活性化関数が必要です!

なぜ非線形性が必要なのか?

線形性とは何ですか?

まず、文脈を作るために線形性の定義を簡単に述べましょう。数学的には、以下の条件を満たす関数は線形と見なされます:

もう一つの条件もあります:

しかし、このデモンストレーションでは、先程の式を使用します。

非常に単純な場合を考えてみましょう:

We will continue to update VoAGI; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more