Learn more about Search Results MarkTechPost - Page 3

このAI論文では、ディープラーニングを通じて脳の設計図について探求します:神経科学とsnnTorch Pythonライブラリのチュートリアルから得た知見を活用してニューラルネットワークを進化させる

神経科学と人工知能の交差点では、特に「snnTorch」として知られるオープンソースのPythonライブラリの開発を通じて、顕著な進展が見られています。この革新的なコードは、脳の効率的なデータ処理方法に触発されたスパイキングニューラルネットワークをシミュレートするもので、UCサンタクルーズのチームの努力から生まれています。 過去4年間、このチームのPythonライブラリ「snnTorch」は、100,000を超えるダウンロードを誇って大きな注目を集めています。その応用は学術的な範囲を超えており、NASAの衛星追跡事業や半導体会社による人工知能用のチップの最適化など、多様なプロジェクトで有益な役割を果たしています。 IEEEの論文に最近掲載された「snnTorch」のコーディングライブラリは、脳の効率的な情報処理メカニズムを模倣したスパイキングニューラルネットワークの重要性を強調しています。彼らの主な目標は、脳の省電力処理を人工知能の機能性と融合させることで、両者の長所を活用することです。 snnTorchは、パンデミック中にチームのPythonコーディングの探求と電力効率の向上のために始まった情熱的なプロジェクトでした。今日、snnTorchは、衛星追跡からチップ設計までのさまざまなグローバルプログラミングプロジェクトで基礎的なツールとして確立されています。 snnTorchの優れた点は、そのコードとその開発に伴って編集された包括的な教育資料です。チームのドキュメントと対話型コーディング資料は、ニューロモーフィックエンジニアリングとスパイキングニューラルネットワークに関心を持つ個人のための入門点となり、コミュニティで貴重な資産となっています。 チームによって著されたIEEE論文は、snnTorchコードに補完される包括的なガイドです。非伝統的なコードブロックと主観的なナラティブを特徴とし、神経モーフィックコンピューティングの不安定な性質を正直に描写しています。これにより、コーディングの決定に不十分に理解された理論的な基盤と格闘する学生たちの苦悩を和らげることを意図しています。 教育リソースとしての役割に加えて、論文は、脳の学習メカニズムと従来の深層学習モデルとの隔たりを埋める視点も提供しています。研究者たちは、AIモデルを脳の機能と調整する課題について探究し、ニューラルネットワークでのリアルタイム学習と「一緒に発火して接続される」興味深い概念に重点を置いています。 さらに、チームはUCSCのGenomics InstituteのBraingeneersとの共同研究において、脳情報処理の洞察を得るために脳器官モデルを利用しています。この共同研究は、生物学と計算論的パラダイムの融合を象徴し、snnTorchの器官モデルのシミュレーション能力による脳発祥の計算の理解への大きな進歩となっています。 研究者の業績は、多様な領域をつなぐ協力的な精神を体現し、脳に触発されたAIを実用的な領域に推進しています。snnTorchの議論に特化した繁栄するDiscordとSlackチャンネルを通じて、この取り組みは産業と学術界の協力関係を促進し、snnTorchに関する熟練を求める求人募集内容にさえ影響を与え続けています。 UCサンタクルーズのチームによる脳に触発されたAIの先駆的な進展は、深層学習、神経科学、計算論的パラダイムのランドスケープを変革する可能性を示しています。

このAIの論文は、マルチビュー映像を使用して3Dシーンダイナミクスをモデリングするための画期的な方法を紹介しています

NVFiは、時間の経過に伴って進化する3Dシーンのダイナミクスを理解し予測するという複雑な課題に取り組んでいます。これは、拡張現実、ゲーム、映画製作などのアプリケーションにとって重要なタスクです。人間はこのようなシーンの物理学と幾何学を容易に理解しますが、既存の計算モデルはマルチビュービデオからこれらの特性を明示的に学習することに苦労しています。これは、ニューラル放射輝度場とその派生物を含む従来の手法が、学習された物理的なルールに基づいて将来の動きを抽出し予測する能力に欠けるためです。NVFiは、これらのギャップを埋めるために、純粋にマルチビュービデオフレームから導かれる分離された速度場を取り入れることで、大胆な目標を掲げています。 3Dシーンの動的な性質は、計算上の深刻な課題を提起します。最近のニューラル放射輝度場の進展により、観測された時間フレーム内でのビュー補間能力が優れていることが示されましたが、物体の速度などの明示的な物理的特性を学習する能力には限界があります。この制限により、将来の動きのパターンを正確に予測する能力も制約されます。物理学をニューラル表現に統合する現在の研究は、シーンのジオメトリ、外観、速度、粘性場を再構築することで有望な結果を示しています。しかし、これらの学習された物理的特性は、しばしば特定のシーン要素と絡み合っているか、補完的な前景セグメンテーションマスクを必要とするため、シーン間の移植性が制限されます。NVFiの画期的な目標は、学習観測を超えた予測能力を育むために、3Dシーン全体の速度場を分離し理解することです。 香港理工大学の研究者たちは、NVFiという包括的なフレームワークを導入しています。これは3つの基本的な要素を組み合わせています。第一に、キーフレームダイナミック輝度場は、3D空間のすべてのポイントに対して時間による体積密度と外観を学習するのを容易にします。第二に、フレーム間速度場は、各ポイントの時間による3D速度を捉えます。最後に、物理学に基づいた制約を加えたキーフレームとフレーム間の要素の組み合わせによる共同最適化戦略がトレーニングプロセスを統括します。このフレームワークでは、動的輝度場モデリングのための既存の時間依存NeRFアーキテクチャを採用する柔軟性を提供しながら、速度場のためにMLPなどの比較的単純なニューラルネットワークを使用します。その核心的なイノベーションは、第三の要素にあり、共同最適化戦略と特定の損失関数により、追加のオブジェクト固有の情報やマスクなしで分離された速度場の正確な学習が可能になります。 NVFiの革新的な進歩は、オブジェクト固有のデータやマスクを必要とせずに、マルチビュービデオフレームから3Dシーンの動力学をモデル化する能力に現れています。それは、シーンの運動ダイナミクスを統括する重要な要素である速度場の分離に精密に焦点を当て、数多くの応用の鍵を握っています。複数のデータセットを通して、NVFiは将来のフレームの予測、シーンの意味的な分解、異なるシーン間での速度の転送など、その優れたパフォーマンスと適応性を証明しています。 主な貢献と要点: 事前のオブジェクト情報なしでマルチビュービデオから動的な3Dシーンモデリングを行うための新しいフレームワークNVFiの導入。 効果的なネットワークトレーニングのためのニューラル速度場の設計と実装。 将来のフレーム予測、意味的なシーンの分解、シーン間速度の転送など、多様なデータセットでNVFiの能力を成功裏に実証し、優れたパフォーマンスを達成。

がん診断の革命:ディープラーニングが正確に識別し再分類することで、肝臓がんの組み合わせを強化された治療判断につながります

“` 肝臓癌は、肝細胞癌(HCC)と肝内胆管癌(ICCA)を含む原発性肝癌は、それぞれ異なる特徴を持つため、重要な課題を抱えています。肝細胞・胆管細胞癌(cHCC-CCA)の出現により、HCCとICCAの特徴を表す特徴を持ち、診断上の複雑さと臨床管理のジレンマが生じています。この稀な病態が正確な治療戦略の派生を複雑化させ、患者の予後に寄与しています。このジレンマに対処するため、本研究では人工知能(AI)の適用により、cHCC-CCA腫瘍を純粋なHCCまたはICCAとして再分類し、改善された予後予測と分子的な洞察を提供することを目指しています。 cHCC-CCAは、肝癌の稀な変異型であり、肝細胞と胆管細胞の形態の組み合わせにより病理学者を困惑させます。複雑なブレンドは診断を難しくし、臨床管理に曖昧さをもたらします。さらに、共識ガイドラインの欠如が治療の決定を複雑化させます。この複雑性は、HCCとICCAの境界が曖昧であり、cHCC-CCAがこれらの実体に類似した遺伝子プロファイルを示すことから、その分子的なアイデンティティについての論争を引き起こします。本研究は、病理学画像解析の強力なツールであるAIを活用し、cHCC-CCA腫瘍をHCCまたはICCAとして識別および再分類することで、臨床的な予後予測および分子的な遺伝子パターンに対する解釈を明確にすることを目指しています。 国際的な研究者チームによるこの研究では、セルフスーパーバイズドフィーチャーエクストラクタと注意機構ベースの集約モデルを組み合わせたAIパイプラインを使用しました。このAIフレームワークは、純粋なHCCとICCAを識別し、発見コホート内で有望な結果を示すことを目指しました。モデルは、クロスバリデーションされた受信者操作特性曲線下の面積(AUROC)が0.99である堅牢な分離能力を示しました。独立したTCGAコホートでの後続の検証では、モデルの有効性が補強され、AUROCが0.94になり、高い汎化能力が示されました。特筆すべきは、AIモデルがICCに似た表現型に近い特徴に強い注目を払っていることであり、微細な組織学的ニュアンスを識別する能力を示しています。 AIモデルの純粋なHCCとICCAの区別能力は、その臨床および分子的な意義の更なる探索を促します。この分割によって、cHCC-CCAと診断された患者に対する治療の効果のギャップを埋めるための正確な予後予測および治療戦略のガイドが可能となります。さらに、ICCに似た特徴への注目は、モデルが異なる組織構造を捉える能力を示しており、cHCC-CCAと既知の肝癌タイプとの病理学的な関連性と一致しています。これらの研究結果は、AIがcHCC-CCAのより正確な診断と予後マーカーの指南において潜在力を持っていることを強調しています。 論文の主なポイント: 診断の潜在能力:AIは、cHCC-CCAをHCCまたはICCAの明確なカテゴリに再分類することで、診断の突破口を提供する可能性を示しています。 臨床的な意義:AIによる分類は、cHCC-CCA患者の個別化された治療戦略と予後予測において有望な成果をもたらします。 分子的な洞察:モデルがICCに似た特徴に注目することは、微細な組織学的構造を捉える能力を示しており、cHCC-CCAと既知の肝癌タイプの間の分子的な類似性に光を当てています。 “`

Google AIがMedLMを導入:医療業界の利用事例に特化したファミリー型基盤モデル

Googleの研究者たちは、現在米国で利用可能な医療業界のために調整されたモデルの基礎であるMedLMを紹介しました。これは、Googleの医療と医学における以前の研究であるMed-PaLM 2という医用に調整された大規模言語モデルに基づいて構築されています。MedLMには、別々のエンドポイントを持つ2つのモデルがあり、顧客にさまざまなユースケースに対する柔軟性を提供します。MedLMは、医療の質問応答や要約に優れた性能を発揮します。 最初のモデルは大きなバリアントで、複雑なタスクを処理するために設計されています。一方、二番目のVoAGIサイズのモデルは、微調整やさまざまなアプリケーションへのスケーラビリティに対して柔軟性を提供します。特定の医療と生命科学の要件に基づいて設計されたこれらのモデルは、基本的な機能から洗練されたワークフローまで、医療におけるAIの採用を強化することが期待されています。 Googleは、HCA Healthcare、BenchSci、Accenture、およびDeloitteと協力し、既存のプロジェクトでのパフォーマンスと効率を向上させるためにMedLMを活用しています。HCA Healthcareとの協力により、MedLMはAugmedixのプラットフォームに統合されています。MedLMの技術を活用したこのアプリは、自然言語処理を使用してクリニシャンと患者の会話をドラフト医療ノートに変換し、医療規制に準拠します。この自動化は、パフォーマンスを向上させるだけでなく、時間の節約、バーンアウトの軽減、そして患者ケアの向上にも貢献します。 BenchSciは、前臨床の研究開発の領域で、ASCENDプラットフォーム内でMedLMを活用しています。目標は、前臨床研究のスピードと品質を向上させることにより、薬の発見を加速することです。ASCENDは、AIパワーのエビデンスエンジンであり、MedLMと協力してバイオマーカーの識別と分類を強化し、科学的な発見プロセスを効率化しています。 Accentureとの協力により、Googleは生成型AIを活用して患者のアクセス、体験、および結果を向上させることを目指しています。Google CloudのClaims Acceleration SuiteとMedLMを統合することで、医療機関は新しい洞察を発見し、最終的にはより良い患者結果につながることができます。MedLMの機能をパイロット導入することにより、DeloitteとGoogle Cloudは、プロバイダディレクトリや福利厚生文書からの情報の簡素化を図り、さまざまな基準に基づいて適切なプロバイダを特定する際にコンタクトセンターエージェントをサポートしています。 これらのプロジェクトすべてが示しているように、MedLMの利用は医療および医学産業におけるAIの成長を支援することができます。Google Researchは、今後数ヶ月間にさらなる機能を提供するために、Geminiベースのモデルを組み込んでMedLMスイートを拡大する予定です。業界のリーダー企業との協力努力は、医療における生成型AIの変革的な可能性を示しています。技術が進化するにつれて、Googleは医療現場の開業医、研究者、および医療組織と緊密に連携し、健康・生命科学における画期的な研究を推進するためにAIの安全かつ責任ある使用を確保することに取り組んでいます。 この投稿は、Google AI Introduces MedLM: A Family of Foundation Models Fine-Tuned…

「Langchainの使い方:ステップバイステップガイド」

LangChain(ラングチェーン)は、プログラマーが大きな言語モデルを使用してアプリケーションを開発するための人工知能フレームワークです。LangChainの使用方法について詳しく見ていきましょう。 ステップ1: セットアップ LangChainを始める前に、適切に構成された開発環境があることを確認してください。PythonまたはJavaScriptなどの必要な依存関係をインストールしてください。LangChainは両方の言語に対応しており、開発者に柔軟性を提供します。 pip install langchain conda install langchain -c conda-forge ステップ2: LLM(Language Models) LangChainを効果的に使用するためには、モデルプロバイダーやデータストア、APIなどのさまざまなコンポーネントと統合することがしばしば必要です。ここでは、LangChainをOpenAIのモデルAPIと統合します。また、Hugging Faceを使用しても同様に行うことができます。 !pip install openaiimport osos.environ["OPENAI_API_KEY"] ="YOUR_OPENAI_TOKEN" from langchain.llms…

この AI ペーパーでは、X-Raydar を発表します:画期的なオープンソースの深層ニューラルネットワークによる胸部 X 線異常検出

“` イギリスの様々な大学の研究者たちは、豊富なデータセットを用いて、総合的な胸部X線異常検出のためのオープンソース人工知能(AI)システム「X-Raydar」を開発しました。このシステムは、6つのイギリスの病院のデータセットを利用し、ニューラルネットワーク「X-Raydar」と自由なテキストレポートの画像から一般的な胸部X線所見を分類するための「X-Raydar-NLP」を活用しています。このデータセットは、13年間にわたる2,513,546件の胸部X線検査と1,940,508件の有用な自由テキストの放射線学的レポートを含んでいます。カスタムトレーニングされた自然言語処理(NLP)アルゴリズム「X-Raydar-NLP」は、レポートから抽出された37の所見のタクソノミーを使用して、胸部X線をラベル付けしました。AIアルゴリズムは、3つの後ろ向きのデータセットで評価され、さまざまな臨床的に重要な所見に対して、歴史的な臨床放射線学家のレポーターと同等のパフォーマンスを示しました。 X-Raydarは、自動ラベル付けセットで0.919の平均AUC、コンセンサスセットで0.864の平均AUC、MIMIC-CXRテストで0.842の平均AUCを達成しました。特筆すべきは、X-Raydarが、コンセンサスセットの37の所見のうち27個で歴史的なレポーターよりも優れた結果を示し、9個で同等性を示し、1個の所見で劣っており、平均的な改善率は13.3%であることです。このシステムのパフォーマンスは、気胸、実質膨満、および実質の腫瘤または結節を含む重要な所見において、訓練を受けた放射線学者と一致しました。 この開発には、8つの解剖学的領域と非解剖学的構造をカバーする放射学的タクソノミーが含まれており、総合的なラベリングを可能にしています。NLPアルゴリズム「X-Raydar-NLP」は、23,230件の手動で注釈付けされたレポートで訓練され、ラベルを抽出しました。コンピュータビジョンアルゴリズムである「X-Raydar」は、InceptionV3を特徴抽出に使用し、カスタム損失関数とクラスの重み付け係数を使用して最適な結果を達成しました。 テストには、専門の放射線学者によって注釈付けされた1,427の画像で構成されるコンセンサスセット、自動ラベル付けセット(n=103,328)、独立したデータセットであるMIMIC-CXR(n=252,374)が使用されました。X-Raydar-NLPは、自由テキストのレポートで臨床的に関連のある所見を良好に検出し、平均感度が0.921、特異度が0.994でした。X-Raydarは、コンセンサスセット全所見における平均AUCが0.864であり、重要な急性および非急性所見に対して強力なパフォーマンスを示しました。 研究者はまた、オンラインのツールを開発し、リアルタイムの胸部X線解釈のためにAIモデルに一般の公開アクセスを可能にしました。X-Raydarオンラインポータルは、DICOM画像をアップロードして自動前処理と分類を行うことができます。さらに、研究者はトレーニングされたネットワークアーキテクチャをオープンソース化し、さらなる研究や適応のための基礎モデルを提供しました。研究者は、総合的な胸部X線異常検出のためのAIシステム「X-Raydar」を成功裏に開発・評価しました。このシステムは、歴史的な放射線学者レポーターと同等のパフォーマンスを示し、研究コミュニティに無償で提供され、放射線学のAIアプリケーションの進歩に貢献しています。 “`

このAI論文では、革新的なAIフレームワークを使用したDeWaveが公開単語彙BCIのためのEEGからテキストへの翻訳を革新しています

GrapheneX-UTSヒューマンセントリック人工知能センター(シドニー工科大学(UTS))の研究者たちは、沈黙した思考を解読し、それをテキストに変換することができる優れたシステムを開発しました。この技術は、脳卒中や麻痺などの状態により話すことができない個人のコミュニケーションを支援し、人間と機械の相互作用を向上させる可能性があります。 この研究チームによってニューオーリンズで開催されたNeurIPS会議でスポットライト記事として発表されたこの研究では、携帯可能で非侵襲的なシステムが紹介されました。グラフェンX-UTS HAIセンターのチームは、シドニー工科大学工学部およびIT部門のメンバーと協力して、侵襲的な手順なしで脳信号をテキスト内容に変換する手法を開発しました。 研究中、参加者は特殊なキャップを装着し、脳波活動を電気脳波計(EEG)を通じて記録するための電極を備えたキャップを着用しながら、テキストの文章を沈黙して読みました。記録されたEEGデータは、研究者が開発したAIモデルであるDeWaveを用いて処理され、これらの脳信号を理解可能な単語と文章に変換します。 研究者は、このイノベーションが生のEEG波を言語に直接変換することの重要性を強調し、脳からテキストへの変換プロセスに離散エンコーディング技術を統合することを示しました。このアプローチは、神経科学とAIの領域で新たな可能性を開くものです。 以前の脳インプラントやMRI機器を使用する侵襲的な手順を必要とする技術とは異なり、チームのシステムは非侵襲的で実用的な代替手段を提供します。さらに、視線追跡に頼らないため、日常的な使用に適応しやすい可能性があります。 この研究は、制約がある過去の研究が1人または2人に限定されていたのに対し、29人の参加者を対象にしたもので、強健性と適応性が高いレベルを確保しています。EEG信号を収集するためにキャップを使用することでノイズが発生しますが、本研究では、EEGの変換において非常に優れたパフォーマンスを報告しています。 モデルは、動詞の方が名詞に比べて優れたマッチングを示すことをチームは強調しました。ただし、名詞を解読する際には、システムは厳密な翻訳ではなく同義語のペアに対して傾向を示していました。研究者は、意味的に似た単語が単語処理中に似た脳波パターンを引き起こす可能性があると説明しています。 現在の翻訳の正確性は、BLEU-1スコアで約40%です。研究者は、このスコアを伝統的な言語翻訳や音声認識プログラムと比較可能なレベルまで向上させることを目指しています。これらのプログラムは通常、90%程度の正確性を実現しています。 この研究は、UTSでの脳コンピュータインターフェース技術の先行する進歩を基盤としており、物理的制限によって妨げられていた個人のためのコミュニケーション手段を革新する可能性を示しています。 この研究の結果は、思考を言葉にシームレスに翻訳し、コミュニケーションの壁に直面している個人を支援し、人間と機械の相互作用を向上させるという約束を提供しています。

このAI論文は、デュアル1-Dヒートマップを使用したリアルタイムマルチパーソンポーズ推定の画期的な技術であるRTMOを紹介しています

姿勢推定とは、物体の位置と方向を空間上で決定することを含む分野であり、継続的に新しい手法を開発して精度とパフォーマンスを向上させてきました。清華深圳国際研究大学院、上海AIラボ、南洋理工大学の研究者たちは、最近、新しいRTMOフレームワークを開発することでこの分野に貢献しました。このフレームワークは、姿勢推定の精度と効率を向上させるポテンシャルを持ち、ロボット工学、拡張現実、仮想現実など、さまざまなアプリケーションに大きな影響を与える可能性があります。 RTMOは既存の手法における精度とリアルタイム性のトレードオフを解消するために設計されたワンステージの姿勢推定フレームワークです。RTMOは座標の分類と密な予測モデルを統合し、トップダウンアプローチと同等の精度を実現しながら、高速性を維持することで、他のワンステージの姿勢推定器を凌駕しています。 リアルタイムのマルチパーソン姿勢推定はコンピュータビジョンの課題であり、既存の手法は速度と精度のバランスをとるために支援が必要です。トップダウンアプローチまたはワンステージアプローチのいずれかには、推論時間または精度の制約があります。RTMOはワンステージの姿勢推定フレームワークであり、YOLOアーキテクチャと座標の分類を組み合わせています。RTMOは動的座標分類器と特別な損失関数を用いて課題を解決し、COCOでの高い平均適合度を維持しながら、リアルタイムのパフォーマンスを実現しています。 この研究では、YOLOのようなアーキテクチャを使用し、背骨とハイブリッドエンコーダを持つRTMOというリアルタイムのマルチパーソン姿勢推定フレームワークを提案しています。デュアル畳み込みブロックは各空間レベルでスコアとポーズ特徴を生成します。この手法は動的座標分類器と特別な損失関数を用いて、座標の分類と密な予測モデルの非互換性に対処しています。動的ビンエンコーディングを使用してビンごとの表現を作成し、クラス分類タスクにはガウスラベルスムージングと交差エントロピー損失を用いています。 RTMOは、高い精度とリアルタイム性を備えたワンステージの姿勢推定フレームワークであり、先端のワンステージ姿勢推定器よりも優れた性能を発揮し、同じ背骨を使用しておよそ9倍速く動作します。最大モデルのRTMO-lはCOCO val2017で74.8%のAPを達成し、単一のV100 GPUで秒あたり141フレームを実行します。異なるシナリオで、RTMOシリーズはパフォーマンスと速度で同等の軽量なワンステージ手法を上回り、効率と正確性を示しています。追加のトレーニングデータを使用することで、RTMO-lは最新の81.7の平均適合度を達成します。このフレームワークは、各キーポイントに対して頑強かつコンテキスト感知型の予測を容易にする空間的に正確なヒートマップを生成します。 https://arxiv.org/abs/2312.07526v1 まとめると、この研究の要点は以下の通りです: RTMOは高い精度とリアルタイム性を持つ姿勢推定フレームワークです。 RTMOはYOLOアーキテクチャ内で座標の分類をシームレスに統合しています。 RTMOは、座標ビンを使用した革新的な座標の分類技術を活用し、正確なキーポイントの位置特定を実現しています。 RTMOは、先端のワンステージ姿勢推定器を凌駕し、COCOで高い平均適合度を達成しながらも、大幅に高速です。 RTMOは難しいマルチパーソンのシナリオで優れた性能を発揮し、頑健な、コンテキスト感知型の予測のための空間的に正確なヒートマップを生成します。 RTMOは既存のトップダウンおよびワンステージのマルチパーソン姿勢推定手法のパフォーマンスと速度をバランスさせます。

スタンフォードの研究者たちはPLATOを発表しました:知識グラフに拡張された正則化を用いた高次元、低サンプルの機械学習の過適合に取り組むための斬新なAIアプローチ

ナレッジグラフ(KG)は、ノードとエッジとして情報を格納するグラフベースのデータベースです。一方、マルチレイヤーパーセプトロン(MLP)は、機械学習で使用されるニューラルネットワークの一種です。MLPは、複数の層に配置された相互接続されたノードで構成されています。各ノードは前の層からの入力を受け取り、次の層に出力を送信します。 スタンフォード大学の研究者たちは、KGを活用して補助的なドメイン情報を提供するための新しい機械学習モデルであるPLATOを紹介しました。 PLATOは、KG内の類似したノードがMLPの最初の層の重みベクトルを持つことを保証する帰納的なバイアスを導入することで、MLPを正則化します。この方法は、多くの次元を持つ表形式のデータセットを含むタブラーデータがサンプルよりも多い場合に機械学習モデルが助けが必要な課題に対処します。 PLATOは、特徴の数よりもデータサンプルの数が遥かに多い表形式のデータセットの未開拓シナリオに対処し、NODEやタブラートランスフォーマーなどの他の深層タブラーモデル、およびPCAやLASSOなどの従来のアプローチと異なり、正則化のためのKGを導入します。グラフ正則化方法とは異なり、PLATOはKG内の特徴ノードと非特徴ノードを組み合わせています。これにより、KGを事前情報として異なる表形式のデータセットでの予測に対してMLPモデルの重みを推定します。 機械学習モデルはデータ豊富な環境で優れたパフォーマンスを発揮することが多い一方で、特徴の数がサンプルの数を大幅に上回る表形式のデータセットでは支援が必要です。この差異は特に科学データセットにおいて顕著であり、モデルのパフォーマンスが制限されます。既存の表形式の深層学習手法は主に例が特徴よりも多いシナリオに焦点を当てており、特徴がサンプルよりも多いローデータ領域では従来の統計手法が主流です。これを解決するために、MLPを正則化するための補助KGを活用するPLATOは、高次元の特徴と限られたモデルを持つデータセットにおけるディープラーニングを可能にし、優れたパフォーマンスを発揮します。 補助KGを活用することで、PLATOは各入力特徴をKGノードと関連付け、ノードの類似性に基づいてMLPの最初の層の重みベクトルを推定します。この手法は、メッセージパッシングの複数のラウンドを用いて特徴の埋め込みを洗練します。PLATOはKG内の浅いノード埋め込み手法(TransE、DistMult、ComplEx)において一貫したパフォーマンスを示す消失実験を行います。この革新的な手法は、データに乏しい表形式の設定におけるディープラーニングモデルの改善の可能性を提供します。 高次元の特徴と限られたサンプルを持つ表形式のデータに対するPLATOは、6つのデータセット全体で13の最先端ベースラインを最大10.19%上回ります。パフォーマンスの評価は、モデルごとに500の設定でランダムサーチを行い、予測値と実際の値のピアソン相関の平均と標準偏差を報告して行われます。結果は、PLATOの効果を裏付け、データに乏しい状況での堅牢なパフォーマンスを達成するための補助KGの活用を示しています。多様なベースラインに対する比較分析は、PLATOの優位性を明確にし、表形式のデータセットの予測の向上における有効性を立証しています。 まとめると、以下のポイントで研究内容を要約することができます: PLATOは表形式のデータのためのディープラーニングフレームワークです。 各入力特徴は補助KG内のノードに似ています。 PLATOはMLPを制御し、高次元の特徴と限られたサンプルを持つ表形式のデータで堅牢なパフォーマンスを達成します。 このフレームワークは、KGノードの類似性に基づいて重みベクトルを推定し、類似の入力特徴は類似の重みベクトルを共有するという帰納的なバイアスを捉えます。 PLATOは6つのデータセットで13のベースラインを最大10.19%上回ります。 補助KGの使用は、データが乏しい状況でのパフォーマンス向上を示します。

中国のこのAI論文では、UniRepLKNetと呼ばれる画像、音声、時間系列データ解析においてクロスモーダル性能を向上させるための革新的な大規模カーネルConvNetアーキテクチャが紹介されています

CNN(畳み込みニューラルネットワーク)は、近年では画像認識のための人気のある技術となっています。物体検出、分類、セグメンテーションのタスクにおいて非常に成功しています。しかし、これらのネットワークがより複雑になるにつれて、新たな課題が浮上しています。テンセントAI Labと香港中文大学の研究者は、大規模カーネルCNNにおけるアーキテクチャの課題に対応するための4つのガイドラインを提案しました。これらのガイドラインは、大規模カーネルをビジョンのタスク以外の領域、例えば時系列予測や音声認識などに拡張して、画像認識の向上を目指しています。 UniRepLKNetは、非常に大きなカーネルを持つConvNetの有効性を探求し、空間畳み込みだけでなく、ポイントクラウドデータ、時系列予測、音声、ビデオの認識などのドメインにまで拡張します。以前の研究では、異なる大きなカーネルの種を紹介していましたが、UniRepLKNetはそのようなカーネルを持つConvNetのためのアーキテクチャ設計に焦点を当てています。UniRepLKNetは3Dパターン学習、時系列予測、音声認識の分野で専門モデルを上回るパフォーマンスを発揮します。テクニカルモデルよりもわずかに低いビデオ認識の精度を持ちながらも、UniRepLKNetはゼロから訓練された総合的なモデルであり、さまざまなドメインでの柔軟性を提供します。 UniRepLKNetは大規模カーネルを持つConvNet向けのアーキテクチャガイドラインを導入し、過剰な深さを避け、広範なカバレッジを重視しています。ガイドラインはVision Transformers(ViTs)の制限に対処し、効率的な構造に焦点を当て、畳み込み層の再パラメータ化、タスクベースのカーネルサイジング、3×3畳み込み層の組み込みを扱っています。UniRepLKNetは既存の大規模カーネルConvNetと最近のアーキテクチャを上回る、画像認識における性能と効率を示しています。時系列予測や音声認識でも普遍的な知覚能力を示し、ポイントクラウドデータの3Dパターン学習においても、専門のConvNetモデルを超える性能を持ちます。 UniRepLKNetのアーキテクチャは、ImageNetの精度が88.0%、ADE20KのmIoUが55.6%、COCOボックスAPが56.4%といった画像認識タスクにおけるトップクラスのパフォーマンスを達成しています。UniRepLKNetの普遍的な知覚能力は、グローバル気温と風速予測の課題においてMSEとMAEで競合他社を上回ることで示されています。UniRepLKNetはポイントクラウドデータの3Dパターン学習においても専門のConvNetモデルを超える性能を発揮します。このモデルは、セグメンテーションなどの下流タスクでも有望な結果を示し、多様なドメインでの優れたパフォーマンスと効率性を確認しています。 まとめると、研究のまとめは以下の通りです: 研究では、大規模カーネルConvNet向けの4つのアーキテクチャガイドラインを導入しています。 これらのガイドラインは大規模カーネルConvNetの特徴を重視しています。 これらのガイドラインに従って設計されたConvNetモデルであるUniRepLKNetは、画像認識タスクにおいて競合他社を上回る優れたパフォーマンスを発揮します。 UniRepLKNetはカスタマイズなしで時系列予測や音声認識などの領域で普遍的な知覚能力を示します。 UniRepLKNetはポイントクラウドデータの3Dパターン学習においても専門モデルを上回ります。 また、研究は非膨張性の大規模カーネル畳み込み層の性能を向上させるためにDilated Reparam Blockを導入しています。 この研究は貴重なアーキテクチャガイドラインを提供し、UniRepLKNetとその能力を紹介し、Dilated Reparam Blockの概念を示しています。

Find the right Blockchain Investment for you

Web 3.0 is coming, whether buy Coins, NFTs or just Coding, everyone can participate.

Advertising with us