ペンシルバニア大学の研究者は、RNNベースのリザーバーコンピュータを設計およびプログラムするための代替AIアプローチを紹介しました
ペンシルバニア大学の研究者は、RNNベースのリザーバーコンピュータの設計とプログラムに代替AIアプローチを紹介しました
人間の脳は、自然が創り出した中で最も複雑なシステムの一つです。ニューロンは再発するニューラルリンクを形成し、インパルスを通じて情報を伝達することで相互作用します。その信じられないほどの論理的推論と数値解析の方法により、研究者たちはこれらの生物学的なニューラルネットワークの方法を現在の人工ニューラルシステムに実装しようと試みています。ニューラル計算の方法には、動的システムの中のRNNや機械学習のためのコンピュータアーキテクチャのニューラルレプリカが含まれます。
研究グループは、現在のニューラルネットワーク技術の進歩により、ソフトウェア仮想化と論理回路の完全な分散型ニューラル実行が可能になると主張しています。これは、これらのニューラルネットワークのトレーニングと改善に通常必要な例データや状態空間のサンプリングの必要性を排除することによって達成されます。基本的には、仮想化やデジタル回路設計などの領域での人工知能のより効率的で堅牢な応用の可能性を示唆しています。
現在のニューラル計算へのアクセスは、ニューラルコンピュータと現代のシリコンコンピュータとの関係の理解が必要であるために限られています。これには、多くのコンピュータのような機能を管理する単純な一連の支配方程式を持つニューラルネットワークが必要です。単純な方程式の結果として、リザーバーコンピュータ(RC)などのネットワークは、再帰型ニューラルネットワーク(RNN)として理論的によく理解されています。これらは入力を受け取ると、内部状態の一連の進化を遂げ、出力はそれらの状態の重み付けの合計です。
- 研究者たちは、ナノLEDの正確なアレイを育成しました
- マイクロソフトとETHチューリッヒの研究者がLightGlueを紹介
- マイクロソフトAI研究は、分子システムの平衡分布を予測するためにDistributional Graphormer(DiG)という新しいディープラーニングフレームワークを紹介しました
ペンシルベニア大学の研究チームは、state neural programming(SNP)とdynamic neural programming(DNP)という2つのフレームワークを開発しました。SNPは、解析的な方程式を解決し操作するためにRCを使用します。DNPは、RCをカオスな力学系をランダムアクセスメモリとして保存するようにプログラムし、ニューラル論理AND、NAND、OR、NOR、XOR、XNORを実装します。
「SNPを使用したオープンループアーキテクチャ」では、タイムラグ入力の多項式時間乗のプログラミング行列を取得し、ハイパスフィルタとして操作できます。アルゴリズムを解決するために、「SNPを使用したクローズドループアーキテクチャ」が使用され、RNNが確率的で微分不可能な時間系列の重要な時間履歴を保存し、短時間フーリエ変換が行われます。
シミュレーションと仮想化には、連続時間RNNの時間履歴のプログラミングが必要なため、DNPメソッドを使用してクローズドループRNNが実装されます。研究者たちは、2000状態のホストRNNと15状態のゲストRNNのフィードバックのダイナミクスをシミュレートしようとしました。彼らは、サンプルなしでカオスなローレンツアトラクターをシミュレートしているだけだとわかりました。結論として、以下のようになります:
研究者たちは、シリコンハードウェアを模倣する現在のアプローチに対して、完全にプログラム可能な代替計算フレームワークが存在することを発見しました。代わりに、それぞれのユニークなシステムの完全な計算能力を最大化する特定のプログラミングシステムの作成に焦点を当てることを提案しています。
We will continue to update VoAGI; if you have any questions or suggestions, please contact us!
Was this article helpful?
93 out of 132 found this helpful
Related articles