「フォワードパスとバックプロパゲーション:ニューラルネットワークの基礎」
「美容とファッション:魅力的で活気溢れる記事」
手作業とコードを使って、ニューラルネットワークがデータのパターンを「トレーニング」および「学習」する方法をPyTorchを使用して説明する
背景
過去の2つの記事で、ニューラルネットワークの起源について探求しました。単一のパーセプトロンから大規模な相互接続(多層パーセプトロン (MLP)) 非線形最適化エンジンまで進んできました。パーセプトロン、MLP、および活性化関数について詳しく知りたい場合は、前の投稿をチェックすることを強くお勧めします。この記事ではこれらについてかなり詳しく議論します。
イントロ、パーセプトロン、およびアーキテクチャ: ニューラルネットワーク101
ニューラルネットワークとその構築要素についての紹介
levelup.gitconnected.com
活性化関数と非線形性: ニューラルネットワーク101
ニューラルネットワークがほぼどんなことでも学習できる理由の説明
towardsdatascience.com
それでは、これらのニューラルネットワークがデータのパターンを「トレーニング」および「学習」する方法を理解する時です。2つの主要な要素があります: フォワードパスとバックプロパゲーション。さあ、始めましょう!
アーキテクチャ
ニューラルネットワークの一般的な構造を簡単におさらいしましょう:
各隠れニューロンが以下のプロセスを実行している場所です:
- 入力: これはデータの特徴です。
- 重み: 入力に乗算されるいくつかの係数です。アルゴリズムの目標は、最適な重みを見つけることです。
- 線型重み付き総和: 入力と重みの積を合計し、バイアス/オフセット項 bを追加します。
- 隠れ層: ここにはデータのパターンを学習するための複数のニューロンが格納されています。上付き文字は…
We will continue to update VoAGI; if you have any questions or suggestions, please contact us!
Was this article helpful?
93 out of 132 found this helpful
Related articles