「脳に触発された学習アルゴリズムにより、人工およびスパイキングニューラルネットワークにメタプラスティシティを可能にする」
Learning algorithms inspired by the brain enable metaplasticity in artificial and spiking neural networks.
ニューラルネットワークにおけるクレジット割り当ては、自然の神経ネットワークにおいて多くのシナプス可塑性ルールを使用して、グローバルな出力の誤りを修正するために決定されています。短期可塑性、ヘビアン学習、およびスパイクタイミング依存性可塑性(STDP)は、スパイキングおよび非スパイキングのANNに生物学的に関連する可塑性原則をもたらすための以前の試みの主な焦点となってきました。STDPは、シナプスを変化させるために、プリシナプススパイクとポストシナプススパイクの時間的な順序を考慮に入れることで、ヘビアン学習を超えています。両方の状況でのシナプス可塑性ルールは、グローバルな指示メッセージを正確に表現するのではなく、ローカルなニューロン活動に基づいているだけです。ドーパミン、ノルアドレナリン、セロトニン、アセチルコリンなどの神経伝達物質は、多くのシナプスで作用し、特定の神経伝達ニューロンの広範な散在した軸からシナプスのグローバルな調節を行い、報酬関連学習中にシナプスを修正します。
生物学的神経調節の方法は、神経ネットワークのモデルにいくつかの可塑性アルゴリズムを提案するためのインスピレーションとなっています。ヘビアン変更と報酬の間には重要な遅延がありますが、このルールは他の形式の強化学習にもインスピレーションを与えました。たとえば、強化学習のための3要素ルールは、プリシナプスおよびポストシナプスのニューロン活動を最初の2要素とし、遠位報酬依存性の神経伝達物質レベルを第3の要素として使用します。エリジビリティトレースモデルは、遅延報酬に依存したシナプスの変化を容易にするために、同時に発生した前後のプリおよびポストシナプススパイクの記録を保持します。ニューロモジュレータレベルでのシナプスの振幅と極性は、計算神経科学モデルで決定されていますが、これらの方法はまだANNまたはSNNに組み込まれる必要があります。画像と音声認識の教師あり学習において、NACAアルゴリズムはクラス-CL中のカタストロフィックな忘却の問題を著しく減少させるだけでなく、認識精度を向上させ、計算コストを減少させました。埋め込まれた層のシナプスの重み変化はさらにマッピングされ、NACAの重み変化の分布が過剰なシナプス増強または抑制を回避し、したがってわずかな調整で多くのシナプスを保護することが示されました。私たちの調査結果は、認識および連続学習タスクの幅広い範囲で高い精度と低い計算コストを備えたニューラルネットワークのパフォーマンスを可能にする、期待に基づくグローバルなニューロモジュレーションのシナプス可塑性に基づいた新しい脳モデルアルゴリズムを提示しています。
ANNとSNNにおけるカタストロフィックな忘却の問題に対処するために、中国科学院自動化研究所の研究者は、ニューロンモジュレーション依存性の可塑性に基づいた新しい脳モデル学習手法(NACA)を提案しました。
- メタAIのコンピュータビジョンにおける公平性のための2つの新しい取り組み:DINOv2のためのライセンス導入とFACETのリリースの紹介
- 『AnomalyGPTとは:産業異常を検出するための大規模ビジョン言語モデル(LVLM)に基づく新しいIADアプローチ』
- 「セマンティックカーネルへのPythonistaのイントロ」
この技術は、ニューラルモジュレーション経路の予測行列エンコーディングの数学モデルに基づいており、これはニューラルモジュレーション経路の脳の構造に基づいています。刺激信号に応答してさまざまな強度のドーパミン監督信号が生成され、近くのニューロンおよびシナプスの可塑性に影響を与えます。
NACAの純粋な順送信フロー学習技術の支持により、ANNとSNNの両方をトレーニングすることができます。それは入力信号と同期し、着信呼び出しが終了する前に情報を前方に伝達します。スパイクタイミング依存性可塑性の特定の変更と組み合わせることで、NACAによって迅速な収束とカタストロフィックな忘却の減少の重要な利点が示されます。さらに、研究チームはニューラルモジュレーションをニューロンの可塑性の範囲に拡張し、NACAのクラス連続学習における連続学習能力をテストしました。
中国科学院自動化研究所の研究者は、NACAアルゴリズムを使用して、ネットワークトレーニング中に隠れ層と出力層のシナプスのサブ集団におけるニューロモジュレータレベルを定義し、入力タイプと出力エラーを考慮しました。シナプスの効力がニューロモジュレータまたはカルシウムのレベルに依存することから、SNNの各シナプスにおけるLTPとLTDの振幅および極性の非線形の変調が着想されました。たとえば、D1受容体またはD2受容体を含むシナプスにドーパミンが結合すると、細胞内サイナージカスケードを可変的に活性化し、活動誘起性LTPまたはLTDの変化を引き起こす場合があります。
私たちは、ニューロンモジュレーション依存性のシナプス可塑性を、NACAという学習アルゴリズムに実装しました。このネットワークを一般的な画像および音声認識タスクに適用すると、精度が大幅に向上し、計算コストが劇的に減少します。NACA技術によって、5つの異なる複雑さのクラス連続学習タスクのカタストロフィックな忘却が大幅に減少しました。スパイキングニューラルネットワーク(SNN)におけるグローバルニューロンワークスペース理論や人工ニューラルネットワーク(ANN)におけるドロップアウト確率のニューロモジュレーションなど、他のニューロモジュレーションに基づいたネットワーク学習アルゴリズムが開発されていますが、NACAは3つの異なる特性を備えており、その成功に寄与している可能性があります。入力タイプと出力エラーに基づいて期待に調整された特定のニューロンとシナプスのニューロモジュレータレベル。第二に、ニューロモジュレータレベルがLTPやLTDなどのローカルなシナプス可塑性に非線形的に影響を与えます。第三に、誤った信号のグローバルBPはネットワーク学習には関係なく、完全にローカルな可塑性に依存します。
NACAアルゴリズムは、既存の学習アルゴリズムと比較して、すべてのジョブの計算コストを劇的に低減しました。NACAの使用により、連続学習中によく起こる極端な忘却を軽減することができました。また、クラスCL中の隠れ層シナプスでのシナプス重みの変化のさらなるマッピングにより、NACAは過度の強化や抑制を伴わない正規分布のシナプス重み変化をもたらし、クラスCL中には最小の変更で多くのシナプスを保持しました。NACAの極端な過忘却を軽減する能力は、シナプス重みの変化がどのように分布されるかに基づいている可能性があります。
以下に提案されたNACAアルゴリズムに課せられたいくつかの制約があります:
- まず、より深いニューラルネットワークでは、NACAアルゴリズムはシナプス変化の神経調節中に非安定性が現れることがあります。たとえば、初期のいくつかのエポックでは、多層シナプスでの並列神経調節がテスト精度の一時的な低下に寄与します。
- 次に、予測コーディングに従って、NACAアルゴリズムは伝統的なBPアルゴリズムとは容易に統合されません。なぜなら、そのグローバルな神経調節は、ローカルなスパイク伝播と同じ時期、またはそれよりも前に発生するからです。
- 第三に、NACAは励起性のLIFニューロンと単一のタイプの神経調節物質のみを導入し調査しています。複数のニューロンタイプからの神経調節の相互作用を調べていません。
バイオロジカルな学習規則を組み込んだNACAアルゴリズムは、グローバルなBPのような勾配降下計算を使用せずに、SNNとANNのネットワーク学習を推進することができます。機械学習における高効率と低コンピューティングコストを脳のインスピレーションを受けた手法を用いることで実現できることを示しています。NACAアルゴリズムがニューロモーフィックデバイスに実装されれば、エネルギーと時間の両方に効率的なオンライン連続学習システムの道を開くことができます。計算神経科学の観点から見ると、NACAの成功は、脳の神経回路の柔軟性が局所可塑性の多様性に由来することを証明しています。
We will continue to update VoAGI; if you have any questions or suggestions, please contact us!
Was this article helpful?
93 out of 132 found this helpful
Related articles