このAI論文は、深層学習を用いて大規模な記録の神経活動を解読する人工知能フレームワーク、POYO-1を紹介しています

「POYO-1:大規模な記録された神経活動を解読するためのAIフレームワーク」

ジョージア工科大学、Mila、モントリオール大学、マギル大学の研究者らは、多様な大規模な神経記録を横断的にモデリングするためのトレーニングフレームワークとアーキテクチャを紹介しています。個々のスパイクをトークナイズして細かい時間的なニューラル活動をキャプチャし、クロスアテンションとPerceiverIOを骨子として使用します。7 つの非人間性霊長類のデータを使用して構築される大規模な複数セッションモデルには、27,000 個以上のニューラルユニットと100 時間以上の記録が含まれています。このモデルは新しいセッションに迅速に適応し、神経データ解析のスケーラブルなアプローチを示すさまざまなタスクでのフューショットパフォーマンスを可能にします。

彼らの研究では、トランスフォーマーを使用して多様な大規模な神経記録の神経集団ダイナミクスをモデル化するスケーラブルなフレームワークを紹介しています。以前のモデルとは異なり、このフレームワークは一連の固定セッションや単一のニューロンセットで操作するのではなく、さまざまな主体やデータソースのデータをトレーニングすることができます。PerceiverIOとクロスアテンション層を活用して、ニューラルイベントを効率的に表現し、新しいセッションでのフューショットパフォーマンスを可能にします。本研究は、トランスフォーマーの神経データ処理への潜在能力を示し、計算機能を向上させる効率的な実装を紹介しています。

機械学習の最近の進歩は、GPT のような大規模な事前トレーニング済みモデルのスケーリングの可能性を示しています。神経科学では、脳機能のより包括的な理解のために、さまざまなデータセット、実験、および被験者を結びつける基礎モデルが求められています。POYO は、さまざまな神経記録セッション間で効率的なトレーニングを実現し、対応するニューロンセットが不明な場合でも、さまざまな神経記録セッションを処理するためのフレームワークです。独自のトークナイゼーションスキームとPerceiverIOアーキテクチャを活用してニューラル活動をモデル化し、その移植性とセッション間の脳デコーディングの改善を示しています。

トークナイゼーションを使用して多様な記録にわたる神経活動のダイナミクスをモデル化し、時間の詳細をキャプチャし、クロスアテンションとPerceiverIOアーキテクチャを使用しています。広範な霊長類データセットでトレーニングされた大規模なマルチセッションモデルは、フューショット学習のための対応するニューロンのない新しいセッションに適応することができます。ローテーションポジションの埋め込みは、トランスフォーマーの注意メカニズムを強化します。このアプローチは神経活動に5ミリ秒のビニングを使用し、ベンチマークデータセットで詳細な結果を達成しています。

フレームワークは、NLB-Maze データセットの神経活動デコーディング効果を示すため、フレームワークを使用してR2値0.8952を達成しました。事前トレーニング済みモデルは、重みの変更なしで同じデータセットで競争力のある結果を提供し、その汎用性を示しています。フューショットパフォーマンスのための新しいセッションに迅速に適応する能力が示されました。大規模なマルチセッションモデルはさまざまなタスクで有望なパフォーマンスを示し、フレームワークの包括的な神経データ解析の潜在能力を強調しています。

結論として、神経集団デコーディングのための一体化かつスケーラブルなフレームワークは、フューショットパフォーマンスのための対応するニューロンのない新しいセッションへの迅速な適応能力を提供し、さまざまなタスクで強力なパフォーマンスを実現します。非人間霊長類のデータを用いてトレーニングされた大規模なマルチセッションモデルは、包括的な神経データ解析のフレームワークの潜在能力を示しています。このアプローチは、神経データ解析の進化を促進するための強力なツールを提供し、スケールでのトレーニングを可能にし、神経集団ダイナミクスに関する洞察を深めることができます。

We will continue to update VoAGI; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more

AI研究

中国の研究者がiTransformerを提案:時間系列予測のためのTransformerアーキテクチャの見直し

トランスフォーマーは、自然言語処理とコンピュータビジョンで大成功を収めた後、スケーリングのルールに従う基本モデルとな...

機械学習

テストに合格する:NVIDIAがMLPerfベンチマークでジェネラティブAIのトレーニングをターボチャージします

NVIDIAのAIプラットフォームは、最新のMLPerf業界ベンチマークにおいて、AIトレーニングとハイパフォーマンスコンピューティ...

AIニュース

「ReactでOpenAIの力を解き放つ:ユーザーエクスペリエンスを革新する」

このブログでは、ReactでOpenAIを使用してユーザーエクスペリエンスを革新する方法を探求しますOpenAIをReactと統合すること...

機械学習

「POCOと出会う:3D人体姿勢と形状推定のための画期的な人工知能フレームワーク」

写真や動画から3D人体のポーズと形状(HPS)を推定することは、現実世界の設定で人間のアクションを再構築するために必要です...

AI研究

「Googleの研究者が球面上でのディープラーニングのためのJAX向けのオープンソースライブラリを紹介します」

ディープラーニングは、入力から複雑な表現を自動的に学習する機械学習の一部です。その応用は、言語処理のための画像と音声...

人工知能

PaLM 2を紹介します

2023年のGoogle I/Oで、GoogleはPaLM 2という新しい言語モデルを発表しましたこのモデルは、多言語、推論、およびコーディン...