Learn more about Search Results A - Page 675

「Pythonデータ構造の基本を5つのステップで始めましょう」

このチュートリアルでは、Pythonの基本的なデータ構造であるリスト、タプル、辞書、セットについて説明しますそれらの特徴、使用例、実践的な例をすべて5つのステップで学びます

横浜の大学の研究者らが提案した「VirSen1.0:センサーに基づく人間のジェスチャー認識システムの開発を効率化するための仮想環境」

ジェスチャー認識技術は、センサーの配置と配置、データの解釈、および機械学習の精度において重大な課題に直面しています。微妙な動きをキャプチャするためのセンサーの効率的な設定、結果のデータの信頼性のある解釈、および意図したジェスチャーを正確に認識するための機械学習アルゴリズムの確実な認識は、持続的な問題となっています。これらの問題は、最適なパフォーマンスを妨げるだけでなく、さまざまなアプリケーションでジェスチャーベースのシステムの広範な採用を制限しています。 横浜の大学の研究者チームは、コンピュータ化された人間のジェスチャー認識のための新しいモデルを発表しました。この研究では、仮想的な光学センサーを仮想空間に対話的に配置してジェスチャー推定システムを設計するためのユーザーインターフェース(UI)であるVirSen 1.0の開発について説明しています。これにより、物理的なセンサーの必要性を排除して、ユーザーはセンサーの配置を実験し、ジェスチャー認識に与える影響を評価することができます。 データは、アバターが所望のジェスチャーを行うことによってトレーニングのために収集されます。研究者たちは、センサー管理のシミュレータに関連する作業について議論し、シミュレータ、データ取得、およびモデル作成を組み合わせたアプローチのユニークさを強調しています。大量のトレーニングデータを収集することが実用的ではないため、サポートベクターマシン(SVM)分類器は、放射基底関数カーネルを使用しています。この研究では、順列特徴重要度(PFI)の貢献指標が高い認識率をもたらすセンサー配置の特定において重要性を強調しています。PFIは、個々の特徴がモデルの予測にどのように影響を与えるかを並べ替えることで測定します。PFIは特徴に関する洞察を提供し、試行錯誤のプロセス中にセンサーの配置を最適化するのに役立ちます。 この研究の光学センサーは、赤外線LEDとフォトディテクタトランジスタで構成されています。データの取得は、センサー値が前のフレームと比較して特定の閾値を超えたときに開始されます。人間のジェスチャーは、イナーシャルセンサをキャプチャするモーションキャプチャツールであるXsensを使用して記録されます。スイーティング、ジャンプ、リーニング、および手を上げるなど、6つの3Dジェスチャーが記録されています。実装には、シミュレータのインターフェースの視覚的な表現が含まれており、ユーザーはオブジェクトを配置し、データを収集し、センサーの値を視覚化し、PFIの貢献指標で精度を評価することができます。 研究チームは、シミュレータを改良する計画であり、過去の配置と結果を確認するための追加機能、PFIの貢献指標に基づいたセンサーの配置を提案する機能を含める予定です。将来の課題として、衣類が認識精度に与える影響を考慮していないこと、センサーノイズとエラーモデリングの欠如、処理速度、および認識対象の制限など、特定の制約を解消する予定です。

「脳に触発された学習アルゴリズムにより、人工およびスパイキングニューラルネットワークにメタプラスティシティを可能にする」

ニューラルネットワークにおけるクレジット割り当ては、自然の神経ネットワークにおいて多くのシナプス可塑性ルールを使用して、グローバルな出力の誤りを修正するために決定されています。短期可塑性、ヘビアン学習、およびスパイクタイミング依存性可塑性(STDP)は、スパイキングおよび非スパイキングのANNに生物学的に関連する可塑性原則をもたらすための以前の試みの主な焦点となってきました。STDPは、シナプスを変化させるために、プリシナプススパイクとポストシナプススパイクの時間的な順序を考慮に入れることで、ヘビアン学習を超えています。両方の状況でのシナプス可塑性ルールは、グローバルな指示メッセージを正確に表現するのではなく、ローカルなニューロン活動に基づいているだけです。ドーパミン、ノルアドレナリン、セロトニン、アセチルコリンなどの神経伝達物質は、多くのシナプスで作用し、特定の神経伝達ニューロンの広範な散在した軸からシナプスのグローバルな調節を行い、報酬関連学習中にシナプスを修正します。 生物学的神経調節の方法は、神経ネットワークのモデルにいくつかの可塑性アルゴリズムを提案するためのインスピレーションとなっています。ヘビアン変更と報酬の間には重要な遅延がありますが、このルールは他の形式の強化学習にもインスピレーションを与えました。たとえば、強化学習のための3要素ルールは、プリシナプスおよびポストシナプスのニューロン活動を最初の2要素とし、遠位報酬依存性の神経伝達物質レベルを第3の要素として使用します。エリジビリティトレースモデルは、遅延報酬に依存したシナプスの変化を容易にするために、同時に発生した前後のプリおよびポストシナプススパイクの記録を保持します。ニューロモジュレータレベルでのシナプスの振幅と極性は、計算神経科学モデルで決定されていますが、これらの方法はまだANNまたはSNNに組み込まれる必要があります。画像と音声認識の教師あり学習において、NACAアルゴリズムはクラス-CL中のカタストロフィックな忘却の問題を著しく減少させるだけでなく、認識精度を向上させ、計算コストを減少させました。埋め込まれた層のシナプスの重み変化はさらにマッピングされ、NACAの重み変化の分布が過剰なシナプス増強または抑制を回避し、したがってわずかな調整で多くのシナプスを保護することが示されました。私たちの調査結果は、認識および連続学習タスクの幅広い範囲で高い精度と低い計算コストを備えたニューラルネットワークのパフォーマンスを可能にする、期待に基づくグローバルなニューロモジュレーションのシナプス可塑性に基づいた新しい脳モデルアルゴリズムを提示しています。 ANNとSNNにおけるカタストロフィックな忘却の問題に対処するために、中国科学院自動化研究所の研究者は、ニューロンモジュレーション依存性の可塑性に基づいた新しい脳モデル学習手法(NACA)を提案しました。 この技術は、ニューラルモジュレーション経路の予測行列エンコーディングの数学モデルに基づいており、これはニューラルモジュレーション経路の脳の構造に基づいています。刺激信号に応答してさまざまな強度のドーパミン監督信号が生成され、近くのニューロンおよびシナプスの可塑性に影響を与えます。 NACAの純粋な順送信フロー学習技術の支持により、ANNとSNNの両方をトレーニングすることができます。それは入力信号と同期し、着信呼び出しが終了する前に情報を前方に伝達します。スパイクタイミング依存性可塑性の特定の変更と組み合わせることで、NACAによって迅速な収束とカタストロフィックな忘却の減少の重要な利点が示されます。さらに、研究チームはニューラルモジュレーションをニューロンの可塑性の範囲に拡張し、NACAのクラス連続学習における連続学習能力をテストしました。 中国科学院自動化研究所の研究者は、NACAアルゴリズムを使用して、ネットワークトレーニング中に隠れ層と出力層のシナプスのサブ集団におけるニューロモジュレータレベルを定義し、入力タイプと出力エラーを考慮しました。シナプスの効力がニューロモジュレータまたはカルシウムのレベルに依存することから、SNNの各シナプスにおけるLTPとLTDの振幅および極性の非線形の変調が着想されました。たとえば、D1受容体またはD2受容体を含むシナプスにドーパミンが結合すると、細胞内サイナージカスケードを可変的に活性化し、活動誘起性LTPまたはLTDの変化を引き起こす場合があります。 私たちは、ニューロンモジュレーション依存性のシナプス可塑性を、NACAという学習アルゴリズムに実装しました。このネットワークを一般的な画像および音声認識タスクに適用すると、精度が大幅に向上し、計算コストが劇的に減少します。NACA技術によって、5つの異なる複雑さのクラス連続学習タスクのカタストロフィックな忘却が大幅に減少しました。スパイキングニューラルネットワーク(SNN)におけるグローバルニューロンワークスペース理論や人工ニューラルネットワーク(ANN)におけるドロップアウト確率のニューロモジュレーションなど、他のニューロモジュレーションに基づいたネットワーク学習アルゴリズムが開発されていますが、NACAは3つの異なる特性を備えており、その成功に寄与している可能性があります。入力タイプと出力エラーに基づいて期待に調整された特定のニューロンとシナプスのニューロモジュレータレベル。第二に、ニューロモジュレータレベルがLTPやLTDなどのローカルなシナプス可塑性に非線形的に影響を与えます。第三に、誤った信号のグローバルBPはネットワーク学習には関係なく、完全にローカルな可塑性に依存します。 NACAアルゴリズムは、既存の学習アルゴリズムと比較して、すべてのジョブの計算コストを劇的に低減しました。NACAの使用により、連続学習中によく起こる極端な忘却を軽減することができました。また、クラスCL中の隠れ層シナプスでのシナプス重みの変化のさらなるマッピングにより、NACAは過度の強化や抑制を伴わない正規分布のシナプス重み変化をもたらし、クラスCL中には最小の変更で多くのシナプスを保持しました。NACAの極端な過忘却を軽減する能力は、シナプス重みの変化がどのように分布されるかに基づいている可能性があります。 以下に提案されたNACAアルゴリズムに課せられたいくつかの制約があります: まず、より深いニューラルネットワークでは、NACAアルゴリズムはシナプス変化の神経調節中に非安定性が現れることがあります。たとえば、初期のいくつかのエポックでは、多層シナプスでの並列神経調節がテスト精度の一時的な低下に寄与します。 次に、予測コーディングに従って、NACAアルゴリズムは伝統的なBPアルゴリズムとは容易に統合されません。なぜなら、そのグローバルな神経調節は、ローカルなスパイク伝播と同じ時期、またはそれよりも前に発生するからです。 第三に、NACAは励起性のLIFニューロンと単一のタイプの神経調節物質のみを導入し調査しています。複数のニューロンタイプからの神経調節の相互作用を調べていません。 バイオロジカルな学習規則を組み込んだNACAアルゴリズムは、グローバルなBPのような勾配降下計算を使用せずに、SNNとANNのネットワーク学習を推進することができます。機械学習における高効率と低コンピューティングコストを脳のインスピレーションを受けた手法を用いることで実現できることを示しています。NACAアルゴリズムがニューロモーフィックデバイスに実装されれば、エネルギーと時間の両方に効率的なオンライン連続学習システムの道を開くことができます。計算神経科学の観点から見ると、NACAの成功は、脳の神経回路の柔軟性が局所可塑性の多様性に由来することを証明しています。

「LLMの力を活用する:ゼロショットとフューショットのプロンプティング」

はじめに LLMのパワーはAIコミュニティで新たなブームとなりました。GPT 3.5、GPT 4、BARDなどのさまざまな生成型AIソリューションが異なるユースケースで早期採用されています。これらは質問応答タスク、クリエイティブなテキストの執筆、批判的分析などに使用されています。これらのモデルは、さまざまなコーパス上で次の文予測などのタスクにトレーニングされているため、テキスト生成に優れていると期待されています。 頑健なトランスフォーマーベースのニューラルネットワークにより、モデルは分類、翻訳、予測、エンティティの認識などの言語に基づく機械学習タスクにも適応することができます。したがって、適切な指示を与えることで、データサイエンティストは生成型AIプラットフォームをより実践的で産業的な言語ベースのMLユースケースに活用することが容易になりました。本記事では、プロンプティングを使用した普及した言語ベースのMLタスクに対する生成型LLMの使用方法を示し、ゼロショットとフューショットのプロンプティングの利点と制限を厳密に分析することを目指します。 学習目標 ゼロショットとフューショットのプロンプティングについて学ぶ。 例として機械学習タスクのパフォーマンスを分析する。 フューショットのプロンプティングをファインチューニングなどのより高度な技術と比較評価する。 プロンプティング技術の利点と欠点を理解する。 この記事はData Science Blogathonの一部として公開されました。 プロンプティングとは? まず、LLMを定義しましょう。大規模言語モデル(LLM)とは、数億から数十億のパラメータを持つ、複数のトランスフォーマーとフィードフォワードニューラルネットワークの層で構築されたディープラーニングシステムです。これらはさまざまなソースの大規模なデータセットでトレーニングされ、テキストを理解し生成するために構築されています。言語翻訳、テキスト要約、質問応答、コンテンツ生成などが例です。LLMにはさまざまなタイプがあります:エンコーダのみ(BERT)、エンコーダ+デコーダ(BART、T5)、デコーダのみ(PALM、GPTなど)。デコーダコンポーネントを持つLLMは生成型LLMと呼ばれ、これがほとんどのモダンなLLMの場合です。 生成型LLMに特定のタスクを実行させるには、適切な指示を与えます。LLMは、プロンプトとも呼ばれる指示に基づいてエンドユーザーに応答するように設計されています。ChatGPTなどのLLMと対話したことがある場合、プロンプトを使用したことがあります。プロンプティングは、モデルが望ましい応答を返すための自然言語のクエリで私たちの意図をパッケージングすることです(例:図1、出典:Chat GPT)。 以下のセクションでは、ゼロショットとフューショットの2つの主要なプロンプティング技術を詳しく見ていきます。それぞれの詳細と基本的な例を見ていきましょう。 ゼロショットプロンプティング ゼロショットプロンプティングは、生成型LLMに特有のゼロショット学習の特定のシナリオです。ゼロショットでは、モデルにラベル付きのデータを提供せず、完全に新しい問題に取り組むことを期待します。例えば、適切な指示を提供することにより、新しいタスクに対してChatGPTをゼロショットプロンプティングに使用します。LLMは多くのリソースからコンテンツを理解しているため、未知の問題に適応することができます。いくつかの例を見てみましょう。 以下は、テキストをポジティブ、ニュートラル、ネガティブの感情クラスに分類するための例です。 ツイートの例 ツイートの例は、Twitter US…

エントロピーに基づく不確実性予測

「最新のディープラーニングを使用して、複雑な脳データセット上で画像セグメンテーションを実行するという課題に直面し、神経画像とAIの研究科学者としてケンブリッジ大学で働いていました...」

「PyTorchのネステロフモーメンタムの実装は間違っていますか?」

「PyTorchのSGDのドキュメンテーションを詳しく見ると、彼らのNesterovモメンタムの実装は、元の論文に見られる数つの違いがあることがわかりますほとんど...」

「ニューラルネットワークの多様性の力を解き放つ:適応ニューロンが画像分類と非線形回帰で均一性を上回る方法」

ニューラルネットワークは、人間の脳に触発された方法でデータを処理するための人工知能の手法です。ニューラルネットワークは、人間の脳に似た層状の構造で相互に接続されたノードまたはニューロンを使用します。人工ニューロンは層に配置され、パターン認識、分類、回帰などのさまざまなタスクに使用されるニューラルネットワークを形成します。これらのニューロンは、トレーニングセッション中に数値の重みとバイアスを変更することで堅固な接続を形成します。 これらのニューラルネットワークの進歩にもかかわらず、それらには制限があります。それらは類似したタイプの多数のニューロンで構成されています。同一のニューロン間の接続の数と強度は、ネットワークが学習するまで変更される可能性があります。しかし、一度ネットワークが最適化されると、これらの固定された接続がそのアーキテクチャと機能を定義し、変更することはできません。 そのため、研究者たちは人工知能の能力を向上させる方法を開発しました。これにより、人工知能は自己の構造を内部から見ることができ、自己のニューラルネットワークを微調整することができます。研究によると、活性化関数の多様化は制限を克服し、モデルが効率的に動作することを可能にすることが示されています。 彼らは多様性に関してAIをテストしました。ノースカロライナ州立大学の物理学教授であり、NC Stateの非線形人工知能研究所(NAIL)の所長であるウィリアム・ディット氏は、彼らは非人間の知能である人工知能(AI)のテストシステムを作成し、AIが多様性を選ぶかどうか、その選択がAIのパフォーマンスを向上させるかどうかを確認するために使用したと述べました。さらに、彼はAIに自己の学習方法を見ることを許すことが鍵であると述べました。 ニューラルネットワークは、ニューロンが自律的に活性化関数を学習することを許すものは、画像分類や非線形回帰などのタスクにおいて、多様化が急速に進み、均質な対応物よりも優れたパフォーマンスを発揮する傾向があります。一方、ディット氏のチームは、AIにニューラルネットワーク内のニューロンの数、構成、および接続強度を自律的に決定する能力を与えました。このアプローチにより、学習が進むにつれて、さまざまなニューロンタイプと接続強度からなるサブネットワークを作成することが可能となりました。 ディット氏は、彼らはAIに内部を見る能力を与え、自己のニューラルネットワークの構成を変更する必要があるかどうかを決定する能力を与えました。基本的に、彼らはAIの脳の制御つまみを与えました。つまり、問題を解決し、結果を見て、最も有利なものを見つけるまで、人工ニューロンのタイプと混合物を変更できるのです。彼はこれをAIのメタ学習と呼びました。彼らのAIは多様なニューロンまたは均質なニューロンの選択をすることもできました。さらに、彼はAIがパフォーマンスを向上させるために常に多様性を選択することを発見したと述べました。 研究者たちは、このシステムを標準的な数値分類タスクに適用し、ニューロンの数と多様性の増加とともにシステムの精度が向上することを見つけました。研究者たちは、均質なAIは数字の識別において57%の精度を達成しましたが、メタ学習による多様なAIは素晴らしい70%の精度を達成しました。 研究者たちは、将来的にはハイパーパラメータを調整することにより学習された多様性の最適化を改善することに焦点を当てるかもしれないと述べました。さらに、獲得した多様性を回帰および分類のさまざまなタスクに適用し、ニューラルネットワークの多様性とパフォーマンスをさまざまなシナリオで評価する予定です。

「ベルカーブの向こう側:t-分布の紹介」

t-分布は、正規分布に非常に似ている連続確率分布ですが、以下の主な違いがあります:t-分布に関する興味深い事実は...

「本番環境での機械学習モデルのモニタリング:なぜ必要であり、どのように行うか?」

「機械学習(ML)モデルの開発には時間がかかり、技術的な専門知識が必要ですデータサイエンスの愛好家として、探索や分析のためにデータセットを入手した際には、我々は喜んでトレーニングに着手します...」

「機械学習の公衆の認識に関する問題」

最近、知識豊かで思慮深い一般の人々(彼らの名前は礼儀をわきまえて伏せておきます)が話しているポッドキャストを聴いていました彼らはAIが医療にどのように利用されるかについて話していました私は...

Find the right Blockchain Investment for you

Web 3.0 is coming, whether buy Coins, NFTs or just Coding, everyone can participate.

Advertising with us