なぜ私たちはニューラルネットワークを持っているのか?
なぜ私たちはニューラルネットワークを持っているのか?-美容・ファッションエキスパートの解説
ニューラルネットワークの代替:テイラーシリーズ&フーリエシリーズ

最近、私は現代のニューラルネットワークのキーコンセプトを説明する一連の記事を執筆しています。

ニューラルネットワーク
リストを表示する8つのストーリー
ニューラルネットワークが非常に強力で人気がある理由の1つは、万能近似定理を示していることです。つまり、ニューラルネットワークは、どんなに複雑な関数でも「学習」できるということです。
関数f(x)は、入力xを受け取り、出力yを返します:

この関数は、入力と出力の関係を定義します。ほとんどの場合、私たちは入力と対応する出力を持っており、ニューラルネットワークの目標は、それらの間のマッピング関数を学習または近似することです。
ニューラルネットワークは1950年代から1960年代に発明されました。しかし、その当時、他の既知の万能近似器が存在しました。なぜ私たちはニューラルネットワークを持っているのでしょうか…
テイラーシリーズ
テイラーシリーズは、関数を1つの点での導関数の値から計算される項の無限和として表現します。言い換えると、関数を近似するための無限多項式の和です。
上記の式は、関数f(x)を無限和として表現しており、f^nはポイントaでの関数fのn次導関数または次数を示し、n!はnの階乗を示します。
こちらをご覧いただくと、テイラーシリーズの使用目的について学ぶことができます。短い話ですが、テイラーシリーズは、見栄えの良くない関数を使いやすくするために使用されます!
テイラーシリーズの単純化版であるマクローリン級数も存在します。こちらではa = 0となります。
この場合、a_0、a_1などは、対応する多項式の係数です。目標は…
We will continue to update VoAGI; if you have any questions or suggestions, please contact us!
Was this article helpful?
93 out of 132 found this helpful
Related articles