Learn more about Search Results この
- You may be interested
- ミリモバイルの自律走行ロボットは、光と...
- エッセンシャルコンプレクシティは、開発...
- 「データは言語モデルの基盤です」
- 「医療分野における生成型AI」
- 「Pythonを使って現実世界のデータにおけ...
- 「ODSC West Bootcamp Roadmapのご紹介 ...
- 『責任ある生成AIの基準の確立』
- ドローンが風力タービンを氷から保護する
- UC BerkeleyとDeepmindの研究者は、Succes...
- 実験追跡ツールの構築方法[Neptuneのエン...
- A.I.-検出ツールを騙すのはどれくらい簡単...
- 「取得した文書の圧縮は言語モデルのパフ...
- 機械学習エンジニアリングチームの炭素排...
- 「Google DeepMindと東京大学の研究者が、...
- 私たちの人種的正義の取り組みについての...
このAI論文では、既知のカメラパラメータなしで新しい視点合成を行うために、COLMAP-Free 3D Gaussian Splatting(CF3DGS)を提案しています
ニューラルレンダリングの進歩により、シーンの再構築や新しい視点の生成において重要なブレイクスルーがもたらされました。しかし、その効果はカメラの姿勢の正確な予備計算に大きく依存します。この問題を最小化するために、事前計算されたカメラの姿勢がないNeural Radiance Fields(NeRFs)を訓練するためにさまざまな取り組みが行われています。しかし、NeRFsの暗黙的な表現は、3Dの構造とカメラの姿勢を同時に最適化するのが困難です。 UCサンディエゴ、NVIDIA、UCバークレーの研究者らは、COLMAP-Free 3D Gaussian Splatting(CF-3DGS)を導入しました。これは、ビデオの時間的な連続性と明示的なポイントクラウド表現の2つの重要な要素を高めています。すべてのフレームを一度に最適化するのではなく、CF-3DGSはカメラが移動するにつれてシーンの3Dガウスを連続的な形で「成長させる」一つの構造を構築します。CF-3DGSは各フレームに対してローカルな3Dガウスセットを抽出し、全体のシーンのグローバルな3Dガウスセットを維持します。 https://arxiv.org/abs/2312.07504 リアルな画像を視点から生成するためにさまざまな3Dシーン表現が使用されており、平面、メッシュ、ポイントクラウド、マルチプレーンイメージなどが含まれます。NeRFs(Neural Radiance Fields)は、その写真のようなリアルなレンダリング能力のために、この分野で注目を集めています。3DGS(3D Gaussian Splatting)メソッドは、純粋な明示的な表現と微分を利用したポイントベースのスプラッティング方法を使用して、ビューのリアルタイムレンダリングを可能にします。 CF-3DGSは既知のカメラパラメータを必要としないで合成ビューを実現します。それは3D Gaussian Splatting(3DGS)とカメラの姿勢を同時に最適化します。近くのフレームから相対カメラ姿勢を推定するためにローカルな3DGSメソッドを使用し、未観測のビューから3Dガウスを進行的に展開するためにグローバルな3DGSプロセスを使用しています。CF-3DGSは、明示的なポイントクラウドを使用してシーンを表現し、3DGSの機能とビデオストリームに固有の連続性を活用します。このアプローチは、入力フレームを順次処理し、3Dガウスを進行的に展開してシーンを再構築します。この手法により、トレーニングと推論の速度が高速化されます。 https://arxiv.org/abs/2312.07504 CF-3DGSメソッドは、先行の最先端技術よりもポーズ推定の耐性が高く、新規ビューの合成品質も優れています。この手法は、より複雑で挑戦的なカメラの動きを示すCO3Dビデオで検証され、ビューの合成品質においてNope-NeRFメソッドを上回る結果を示しました。このアプローチは、CO3D V2データセットにおいてすべてのメトリックでNope-NeRFeをしのぎ、特に複雑なカメラの動きがあるシナリオでのカメラの姿勢推定の耐性と精度を示しています。 まとめると、CF-3DGSはビデオの時間的な連続性と明示的なポイントクラウド表現を利用してビューを効果的かつ堅牢に合成する方法です。この方法は、主にビデオストリームや順序付けられた画像コレクションに適しており、Structure-from-Motion(SfM)前処理の必要はありません。また、非順序の画像コレクションに対応するための将来の拡張の可能性もあります。
AIの物体認識をどのように進化させることができるのか? このAIの論文は、強化された画像と動画の分析のための普遍的な物体レベルの基礎モデルGLEEを紹介します
画像やビデオの物体認識は、機械に視覚世界を解読する力を与えます。仮想の探偵のように、コンピュータビジョンシステムはピクセルをスキャンし、デジタル体験のキャンバスに描かれた多くの物体を認識、追跡、理解します。このディープラーニングの力による技術的な能力は、自動運転車が都市の風景をナビゲートすることから、視覚的なエンカウンターにより多くの知能を追加する仮想アシスタントまで、変革的な応用の扉を開きます。 中国科学技術大学、字節跳動、ジョンズ・ホプキンズ大学の研究者たちは、画像とビデオの物体認識のための多目的モデルGLEEを紹介しています。GLEEは、物体の位置特定と識別に優れており、タスクに固有の適応なしでさまざまなタスクに対して優れた汎化性能を示します。大規模言語モデルの統合も可能であり、多モーダル研究のための普遍的な物体レベルの情報を提供します。さまざまなデータソースからの知識の取得能力により、効率が向上し、異なる物体認識タスクの処理能力が向上します。 GLEEは、画像エンコーダ、テキストエンコーダ、ビジュアルプロンプタを統合し、多モーダル入力処理と一般化物体表現予測を行います。Objects365、COCO、Visual Genomeなどのさまざまなデータセットで訓練されたGLEEは、オープンワールドのシナリオで物体の検出、セグメンテーション、トラッキング、グラウンディング、識別を行うための統一されたフレームワークを使用します。動的なクラスヘッドを持つMaskDINOに基づいたオブジェクトデコーダは、予測のために類似性計算を使用します。物体検出とインスタンスセグメンテーションでプリトレーニングされた後、結合トレーニングにより、さまざまな下流の画像とビデオのタスクにおいて最先端のパフォーマンスを実現します。 GLEEは、特定のタスクに特化した適応なしで多様な下流のタスクに対応する傑出した汎化性能と拡張性を示しました。物体検出、インスタンスセグメンテーション、グラウンディング、マルチターゲットトラッキング、ビデオインスタンスセグメンテーション、ビデオオブジェクトセグメンテーション、インタラクティブセグメンテーションとトラッキングなど、さまざまな画像とビデオのタスクで優れたパフォーマンスを発揮します。GLEEは他のモデルに統合された場合でも最先端のパフォーマンスを維持し、その表現の多様性と効果的な性能を示します。ゼロショットの汎化性能は、自動的にラベル付けされた大量のデータを組み込むことでさらに向上します。また、GLEEは基盤モデルとしての役割も果たします。 https://arxiv.org/abs/2312.09158 GLEEは、現在のビジュアル基盤モデルの限界を克服し、正確かつ普遍的な物体レベルの情報を提供する画期的な一般物体基盤モデルです。GLEEは多様な物体中心のタスクに堪能であり、ゼロショットの転送シナリオでも特に優れた汎化性能を示します。さまざまなデータソースを使用して一般的な物体表現を組み込むことで、スケーラブルなデータセットの拡張とゼロショットの能力を向上させます。モデルは複数のデータソースをサポートしており、追加の注釈を容易に組み込むことで、さまざまな下流のタスクにおいて最先端のパフォーマンスを実現し、既存のモデルを凌駕します。 これまで行われた研究の範囲と将来の研究の方向は、以下に焦点を当てることができます: 複雑なシナリオや長尾分布を持つチャレンジングなデータセットを扱うGLEEの能力を拡大するための継続的な研究です。 特化したモデルを統合することで、GLEEの普遍的な物体レベル表現を活用し、マルチモーダルなタスクの性能を向上させることを目指しています。 DALL-Eなどのモデルと同様に、広範な画像キャプションのペアをトレーニングすることで、GLEEのテキスト指示に基づいた詳細な画像コンテンツの生成の可能性を探っています。 オブジェクトレベルのタスクへの応用範囲を広げるために、GLEEの物理的な文脈を組み込んだオブジェクトレベルの情報を強化しています。 インタラクティブなセグメンテーションとトラッキングの機能のさらなる開発は、さまざまなビジュアルプロンプトの探索やオブジェクトセグメンテーションのスキルの改善を含みます。
「このAI論文調査は、医学における大規模言語モデル(LLMs)の役割、課題、原則、応用について取り上げています」
<img alt=”” src=”https://ai.miximages.com/www.marktechpost.com/wp-content/uploads/2023/12/Medical_LLM_outline-857×1024.png”/><img alt=”” src=”https://ai.miximages.com/www.marktechpost.com/wp-content/uploads/2023/12/Medical_LLM_outline-150×150.png”/><p>自然言語処理(NLP)は、特に大規模言語モデル(LLM)の導入により、ここ数か月で大きく進歩しました。GPT、PaLM、LLaMAなどのモデルは、テキスト生成、要約、質問応答といったさまざまなNLPタスクを実行する能力により、非常に人気を集めています。研究者たちは医療分野でLLMの力を活用しようと常に取り組んでいます。</p><p>ChatDoctor、MedAlpaca、PMC-LLaMA、BenTsao、MedPaLM、Clinical Camelなどの医療用LLMは、患者のケアの向上と医療従事者のサポートに使用されています。現在の医療用LLMは良好な結果を示していますが、まだいくつかの課題があります。多くのモデルは、臨床設定における対話や質問応答といったバイオメディカルNLPタスクの実用的な価値を見落としています。医療用LLMの電子健康記録(EHR)、高齢者退院要約の作成、健康教育、ケアプランニングといった臨床コンテキストでの潜在能力は、最近の研究の主題となっています。しかし、これらのモデルには一般的な評価データセットが欠けていることがよくあります。</p><p>もう一つの欠点は、現在使用されている医療用LLMの大多数が、医学的な質問に対する応答能力だけを評価し、情報検索、テキスト生成、関係抽出、テキスト要約などの他の重要なバイオメディカルタスクを無視していることです。これらの問題を克服するため、研究チームは医療用LLMのさまざまな側面を探求しながら、以下の5つの主要な問いに答えることで研究を実施しました。</p><ol><li>医療用LLMの作成:最初の問いは、医療用LLMの作成に関わるアプローチや要素を調査することを目的としています。これには、これらのモデルの作成の基本的なアイデアや構造、トレーニングセット、その他の関連要素を理解する必要があります。</li></ol><ol><li>医療用LLMの実施結果の評価:2番目の問いは、医療用LLMの実際の結果やパフォーマンスを評価することに焦点を当てています。特に、臨床医学関連のタスクにおいて、これらのモデルのパフォーマンスを評価することが含まれます。</li></ol><ol><li>実際の臨床現場での医療用LLMの使用:3番目の問いは、医療用LLMが実際に臨床現場でどのように使用されるかを探究します。これには、これらのモデルが医療従事者の定期的なワークフローにどのように組み込まれ、コミュニケーション、意思決定、一般的な患者ケアの改善に役立つかを調査することが含まれます。</li></ol><ol><li>医療用LLMの適用による問題:4番目の問いは、医療用LLMの使用には、他の技術と同様に様々な障害があることを認識しています。医療設定でこれらのモデルを責任を持ってかつ成功裏に導入するためには、倫理的な問題、モデルにおける潜在的なバイアス、可解釈性の問題など、いくつかのハードルに取り組む必要があります。</li></ol><ol><li>医療用LLMの構築と適用の成功:最後の問いは、医療用LLMの設計と適用の改善について、将来について明らかにするためのものです。これにより、医療用LLMが医療業界で有用なツールとして発展し続けることが保証されます。</li></ol><p>総括すると、この調査は医療分野におけるLLMを詳細に分析しています。それは10種類の異なるバイオメディカルアクティビティから得られた評価を要約し、それらのアプリケーションに関する詳細な概要を提供しています。主要な課題に取り組むことで、この研究は医療用LLMの包括的な知識を提供し、より詳細な分析、チームワーク、そして医療AI領域の迅速な進歩を促進することを目指しています。</p>
このAI論文は、「パーシウス」という画期的なフレームワークを紹介していますこれにより、大規模な機械学習やAIモデルのトレーニング時のエネルギー浪費を最大30%削減することが可能です
大きな言語モデル(GPT-3など)は、トレーニングと推論中の計算ニーズにより、相当なエネルギーを必要とします。エネルギー使用量は、モデルのサイズ、タスクの複雑さ、ハードウェアの仕様、および運用時間などの要素によって大きく異なります。 これらのモデルのトレーニングには、高性能なGPUやTPUを使用するなど多くの計算リソースが必要とされ、長期にわたる相当なエネルギー消費を伴います。GPT-3のような大規模な言語モデルのトレーニングには、数日または数週間にわたる複数の家庭の消費電力に相当するエネルギーが使われるとの推定があります。 エネルギー消費の最適化は重要であり、モデルの効率を損なうことなく行われる必要があります。研究者は、大規模な言語モデルのトレーニングにおいてスループットの喪失を伴わない削減可能なエネルギー消費を目指しています。各パイプラインの計算量の問題は、分散実行計画において重要な問題です。ディープニューラルネットワーク(DNN)は、計算量が異なる粗粒度のテンソル操作ですので、すべてのステージをバランス良く調整するのは不可能です。 ミシガン大学とワシントン大学の研究者たちは、トレーニング中に消費されるエネルギーのすべてが直接エンドツーエンドのトレーニングスループットに貢献するわけではなく、トレーニングを遅くすることなく大幅に削減できることを発見しました。彼らはエネルギーの膨張の内的および外的な要因を発見し、Perseusという単一の最適化フレームワークを提案しています。 内的なエネルギーパフォーマンスの喪失は、計算の不均衡性によるものであり、外的なエネルギーパフォーマンスの喪失は、複数のパイプラインが並列で実行され、大量のデータセットでトレーニングをスケールアウトさせるためのものです。遅れているパイプラインよりも早く実行されるパイプラインは速く、全体のトレーニングスループットに影響を与えないエネルギーを無駄に消費します。 Perseusは、通常の運用条件下で内的なエネルギーパフォーマンスの喪失を最小限に抑えるため、イテレーション全体の時間エネルギーを効率的に事前特性化します。さらに、エネルギーを効率的に削減することにより、外的なエネルギーパフォーマンスの喪失を緩和します。非遅れているパイプラインにおいて適切なイテレーションタイミングを見つけることで、パイプライン内の計算を正確に遅くすることができます。 研究者は、ハイブリッド並列処理で大規模なモデルのトレーニングを行い、さまざまな強いスケーリング構成で遅れるパイプラインをシミュレーションしました。エネルギーパフォーマンスの喪失量とPerseusの外的なエネルギー節約を測定しました。他の非遅れるパイプラインは、遅れるパイプラインの計算が完了するまで待つため、外的なエネルギーパフォーマンスの喪失が生じます。各パイプラインイテレーションの開始と終了時にマイクロバッチの数やパイプラインバブルの比率を減らすことで、内的なエネルギーパフォーマンスの喪失を除去し、エネルギーを削減します。 Perseusをトレーニングワークフローに統合することは、AIの開発の将来に強い影響を与える可能性があります。彼らの研究は、LLM(Large Language Models)とGenAIの普及における分散トレーニングの持続可能性を大幅に向上させる可能性があります。
このAI論文では、ディープラーニングを通じて脳の設計図について探求します:神経科学とsnnTorch Pythonライブラリのチュートリアルから得た知見を活用してニューラルネットワークを進化させる
神経科学と人工知能の交差点では、特に「snnTorch」として知られるオープンソースのPythonライブラリの開発を通じて、顕著な進展が見られています。この革新的なコードは、脳の効率的なデータ処理方法に触発されたスパイキングニューラルネットワークをシミュレートするもので、UCサンタクルーズのチームの努力から生まれています。 過去4年間、このチームのPythonライブラリ「snnTorch」は、100,000を超えるダウンロードを誇って大きな注目を集めています。その応用は学術的な範囲を超えており、NASAの衛星追跡事業や半導体会社による人工知能用のチップの最適化など、多様なプロジェクトで有益な役割を果たしています。 IEEEの論文に最近掲載された「snnTorch」のコーディングライブラリは、脳の効率的な情報処理メカニズムを模倣したスパイキングニューラルネットワークの重要性を強調しています。彼らの主な目標は、脳の省電力処理を人工知能の機能性と融合させることで、両者の長所を活用することです。 snnTorchは、パンデミック中にチームのPythonコーディングの探求と電力効率の向上のために始まった情熱的なプロジェクトでした。今日、snnTorchは、衛星追跡からチップ設計までのさまざまなグローバルプログラミングプロジェクトで基礎的なツールとして確立されています。 snnTorchの優れた点は、そのコードとその開発に伴って編集された包括的な教育資料です。チームのドキュメントと対話型コーディング資料は、ニューロモーフィックエンジニアリングとスパイキングニューラルネットワークに関心を持つ個人のための入門点となり、コミュニティで貴重な資産となっています。 チームによって著されたIEEE論文は、snnTorchコードに補完される包括的なガイドです。非伝統的なコードブロックと主観的なナラティブを特徴とし、神経モーフィックコンピューティングの不安定な性質を正直に描写しています。これにより、コーディングの決定に不十分に理解された理論的な基盤と格闘する学生たちの苦悩を和らげることを意図しています。 教育リソースとしての役割に加えて、論文は、脳の学習メカニズムと従来の深層学習モデルとの隔たりを埋める視点も提供しています。研究者たちは、AIモデルを脳の機能と調整する課題について探究し、ニューラルネットワークでのリアルタイム学習と「一緒に発火して接続される」興味深い概念に重点を置いています。 さらに、チームはUCSCのGenomics InstituteのBraingeneersとの共同研究において、脳情報処理の洞察を得るために脳器官モデルを利用しています。この共同研究は、生物学と計算論的パラダイムの融合を象徴し、snnTorchの器官モデルのシミュレーション能力による脳発祥の計算の理解への大きな進歩となっています。 研究者の業績は、多様な領域をつなぐ協力的な精神を体現し、脳に触発されたAIを実用的な領域に推進しています。snnTorchの議論に特化した繁栄するDiscordとSlackチャンネルを通じて、この取り組みは産業と学術界の協力関係を促進し、snnTorchに関する熟練を求める求人募集内容にさえ影響を与え続けています。 UCサンタクルーズのチームによる脳に触発されたAIの先駆的な進展は、深層学習、神経科学、計算論的パラダイムのランドスケープを変革する可能性を示しています。
このAIの論文は、マルチビュー映像を使用して3Dシーンダイナミクスをモデリングするための画期的な方法を紹介しています
NVFiは、時間の経過に伴って進化する3Dシーンのダイナミクスを理解し予測するという複雑な課題に取り組んでいます。これは、拡張現実、ゲーム、映画製作などのアプリケーションにとって重要なタスクです。人間はこのようなシーンの物理学と幾何学を容易に理解しますが、既存の計算モデルはマルチビュービデオからこれらの特性を明示的に学習することに苦労しています。これは、ニューラル放射輝度場とその派生物を含む従来の手法が、学習された物理的なルールに基づいて将来の動きを抽出し予測する能力に欠けるためです。NVFiは、これらのギャップを埋めるために、純粋にマルチビュービデオフレームから導かれる分離された速度場を取り入れることで、大胆な目標を掲げています。 3Dシーンの動的な性質は、計算上の深刻な課題を提起します。最近のニューラル放射輝度場の進展により、観測された時間フレーム内でのビュー補間能力が優れていることが示されましたが、物体の速度などの明示的な物理的特性を学習する能力には限界があります。この制限により、将来の動きのパターンを正確に予測する能力も制約されます。物理学をニューラル表現に統合する現在の研究は、シーンのジオメトリ、外観、速度、粘性場を再構築することで有望な結果を示しています。しかし、これらの学習された物理的特性は、しばしば特定のシーン要素と絡み合っているか、補完的な前景セグメンテーションマスクを必要とするため、シーン間の移植性が制限されます。NVFiの画期的な目標は、学習観測を超えた予測能力を育むために、3Dシーン全体の速度場を分離し理解することです。 香港理工大学の研究者たちは、NVFiという包括的なフレームワークを導入しています。これは3つの基本的な要素を組み合わせています。第一に、キーフレームダイナミック輝度場は、3D空間のすべてのポイントに対して時間による体積密度と外観を学習するのを容易にします。第二に、フレーム間速度場は、各ポイントの時間による3D速度を捉えます。最後に、物理学に基づいた制約を加えたキーフレームとフレーム間の要素の組み合わせによる共同最適化戦略がトレーニングプロセスを統括します。このフレームワークでは、動的輝度場モデリングのための既存の時間依存NeRFアーキテクチャを採用する柔軟性を提供しながら、速度場のためにMLPなどの比較的単純なニューラルネットワークを使用します。その核心的なイノベーションは、第三の要素にあり、共同最適化戦略と特定の損失関数により、追加のオブジェクト固有の情報やマスクなしで分離された速度場の正確な学習が可能になります。 NVFiの革新的な進歩は、オブジェクト固有のデータやマスクを必要とせずに、マルチビュービデオフレームから3Dシーンの動力学をモデル化する能力に現れています。それは、シーンの運動ダイナミクスを統括する重要な要素である速度場の分離に精密に焦点を当て、数多くの応用の鍵を握っています。複数のデータセットを通して、NVFiは将来のフレームの予測、シーンの意味的な分解、異なるシーン間での速度の転送など、その優れたパフォーマンスと適応性を証明しています。 主な貢献と要点: 事前のオブジェクト情報なしでマルチビュービデオから動的な3Dシーンモデリングを行うための新しいフレームワークNVFiの導入。 効果的なネットワークトレーニングのためのニューラル速度場の設計と実装。 将来のフレーム予測、意味的なシーンの分解、シーン間速度の転送など、多様なデータセットでNVFiの能力を成功裏に実証し、優れたパフォーマンスを達成。
この AI ペーパーでは、X-Raydar を発表します:画期的なオープンソースの深層ニューラルネットワークによる胸部 X 線異常検出
“` イギリスの様々な大学の研究者たちは、豊富なデータセットを用いて、総合的な胸部X線異常検出のためのオープンソース人工知能(AI)システム「X-Raydar」を開発しました。このシステムは、6つのイギリスの病院のデータセットを利用し、ニューラルネットワーク「X-Raydar」と自由なテキストレポートの画像から一般的な胸部X線所見を分類するための「X-Raydar-NLP」を活用しています。このデータセットは、13年間にわたる2,513,546件の胸部X線検査と1,940,508件の有用な自由テキストの放射線学的レポートを含んでいます。カスタムトレーニングされた自然言語処理(NLP)アルゴリズム「X-Raydar-NLP」は、レポートから抽出された37の所見のタクソノミーを使用して、胸部X線をラベル付けしました。AIアルゴリズムは、3つの後ろ向きのデータセットで評価され、さまざまな臨床的に重要な所見に対して、歴史的な臨床放射線学家のレポーターと同等のパフォーマンスを示しました。 X-Raydarは、自動ラベル付けセットで0.919の平均AUC、コンセンサスセットで0.864の平均AUC、MIMIC-CXRテストで0.842の平均AUCを達成しました。特筆すべきは、X-Raydarが、コンセンサスセットの37の所見のうち27個で歴史的なレポーターよりも優れた結果を示し、9個で同等性を示し、1個の所見で劣っており、平均的な改善率は13.3%であることです。このシステムのパフォーマンスは、気胸、実質膨満、および実質の腫瘤または結節を含む重要な所見において、訓練を受けた放射線学者と一致しました。 この開発には、8つの解剖学的領域と非解剖学的構造をカバーする放射学的タクソノミーが含まれており、総合的なラベリングを可能にしています。NLPアルゴリズム「X-Raydar-NLP」は、23,230件の手動で注釈付けされたレポートで訓練され、ラベルを抽出しました。コンピュータビジョンアルゴリズムである「X-Raydar」は、InceptionV3を特徴抽出に使用し、カスタム損失関数とクラスの重み付け係数を使用して最適な結果を達成しました。 テストには、専門の放射線学者によって注釈付けされた1,427の画像で構成されるコンセンサスセット、自動ラベル付けセット(n=103,328)、独立したデータセットであるMIMIC-CXR(n=252,374)が使用されました。X-Raydar-NLPは、自由テキストのレポートで臨床的に関連のある所見を良好に検出し、平均感度が0.921、特異度が0.994でした。X-Raydarは、コンセンサスセット全所見における平均AUCが0.864であり、重要な急性および非急性所見に対して強力なパフォーマンスを示しました。 研究者はまた、オンラインのツールを開発し、リアルタイムの胸部X線解釈のためにAIモデルに一般の公開アクセスを可能にしました。X-Raydarオンラインポータルは、DICOM画像をアップロードして自動前処理と分類を行うことができます。さらに、研究者はトレーニングされたネットワークアーキテクチャをオープンソース化し、さらなる研究や適応のための基礎モデルを提供しました。研究者は、総合的な胸部X線異常検出のためのAIシステム「X-Raydar」を成功裏に開発・評価しました。このシステムは、歴史的な放射線学者レポーターと同等のパフォーマンスを示し、研究コミュニティに無償で提供され、放射線学のAIアプリケーションの進歩に貢献しています。 “`
このAI論文では、革新的なAIフレームワークを使用したDeWaveが公開単語彙BCIのためのEEGからテキストへの翻訳を革新しています
GrapheneX-UTSヒューマンセントリック人工知能センター(シドニー工科大学(UTS))の研究者たちは、沈黙した思考を解読し、それをテキストに変換することができる優れたシステムを開発しました。この技術は、脳卒中や麻痺などの状態により話すことができない個人のコミュニケーションを支援し、人間と機械の相互作用を向上させる可能性があります。 この研究チームによってニューオーリンズで開催されたNeurIPS会議でスポットライト記事として発表されたこの研究では、携帯可能で非侵襲的なシステムが紹介されました。グラフェンX-UTS HAIセンターのチームは、シドニー工科大学工学部およびIT部門のメンバーと協力して、侵襲的な手順なしで脳信号をテキスト内容に変換する手法を開発しました。 研究中、参加者は特殊なキャップを装着し、脳波活動を電気脳波計(EEG)を通じて記録するための電極を備えたキャップを着用しながら、テキストの文章を沈黙して読みました。記録されたEEGデータは、研究者が開発したAIモデルであるDeWaveを用いて処理され、これらの脳信号を理解可能な単語と文章に変換します。 研究者は、このイノベーションが生のEEG波を言語に直接変換することの重要性を強調し、脳からテキストへの変換プロセスに離散エンコーディング技術を統合することを示しました。このアプローチは、神経科学とAIの領域で新たな可能性を開くものです。 以前の脳インプラントやMRI機器を使用する侵襲的な手順を必要とする技術とは異なり、チームのシステムは非侵襲的で実用的な代替手段を提供します。さらに、視線追跡に頼らないため、日常的な使用に適応しやすい可能性があります。 この研究は、制約がある過去の研究が1人または2人に限定されていたのに対し、29人の参加者を対象にしたもので、強健性と適応性が高いレベルを確保しています。EEG信号を収集するためにキャップを使用することでノイズが発生しますが、本研究では、EEGの変換において非常に優れたパフォーマンスを報告しています。 モデルは、動詞の方が名詞に比べて優れたマッチングを示すことをチームは強調しました。ただし、名詞を解読する際には、システムは厳密な翻訳ではなく同義語のペアに対して傾向を示していました。研究者は、意味的に似た単語が単語処理中に似た脳波パターンを引き起こす可能性があると説明しています。 現在の翻訳の正確性は、BLEU-1スコアで約40%です。研究者は、このスコアを伝統的な言語翻訳や音声認識プログラムと比較可能なレベルまで向上させることを目指しています。これらのプログラムは通常、90%程度の正確性を実現しています。 この研究は、UTSでの脳コンピュータインターフェース技術の先行する進歩を基盤としており、物理的制限によって妨げられていた個人のためのコミュニケーション手段を革新する可能性を示しています。 この研究の結果は、思考を言葉にシームレスに翻訳し、コミュニケーションの壁に直面している個人を支援し、人間と機械の相互作用を向上させるという約束を提供しています。
このAI論文は、デュアル1-Dヒートマップを使用したリアルタイムマルチパーソンポーズ推定の画期的な技術であるRTMOを紹介しています
姿勢推定とは、物体の位置と方向を空間上で決定することを含む分野であり、継続的に新しい手法を開発して精度とパフォーマンスを向上させてきました。清華深圳国際研究大学院、上海AIラボ、南洋理工大学の研究者たちは、最近、新しいRTMOフレームワークを開発することでこの分野に貢献しました。このフレームワークは、姿勢推定の精度と効率を向上させるポテンシャルを持ち、ロボット工学、拡張現実、仮想現実など、さまざまなアプリケーションに大きな影響を与える可能性があります。 RTMOは既存の手法における精度とリアルタイム性のトレードオフを解消するために設計されたワンステージの姿勢推定フレームワークです。RTMOは座標の分類と密な予測モデルを統合し、トップダウンアプローチと同等の精度を実現しながら、高速性を維持することで、他のワンステージの姿勢推定器を凌駕しています。 リアルタイムのマルチパーソン姿勢推定はコンピュータビジョンの課題であり、既存の手法は速度と精度のバランスをとるために支援が必要です。トップダウンアプローチまたはワンステージアプローチのいずれかには、推論時間または精度の制約があります。RTMOはワンステージの姿勢推定フレームワークであり、YOLOアーキテクチャと座標の分類を組み合わせています。RTMOは動的座標分類器と特別な損失関数を用いて課題を解決し、COCOでの高い平均適合度を維持しながら、リアルタイムのパフォーマンスを実現しています。 この研究では、YOLOのようなアーキテクチャを使用し、背骨とハイブリッドエンコーダを持つRTMOというリアルタイムのマルチパーソン姿勢推定フレームワークを提案しています。デュアル畳み込みブロックは各空間レベルでスコアとポーズ特徴を生成します。この手法は動的座標分類器と特別な損失関数を用いて、座標の分類と密な予測モデルの非互換性に対処しています。動的ビンエンコーディングを使用してビンごとの表現を作成し、クラス分類タスクにはガウスラベルスムージングと交差エントロピー損失を用いています。 RTMOは、高い精度とリアルタイム性を備えたワンステージの姿勢推定フレームワークであり、先端のワンステージ姿勢推定器よりも優れた性能を発揮し、同じ背骨を使用しておよそ9倍速く動作します。最大モデルのRTMO-lはCOCO val2017で74.8%のAPを達成し、単一のV100 GPUで秒あたり141フレームを実行します。異なるシナリオで、RTMOシリーズはパフォーマンスと速度で同等の軽量なワンステージ手法を上回り、効率と正確性を示しています。追加のトレーニングデータを使用することで、RTMO-lは最新の81.7の平均適合度を達成します。このフレームワークは、各キーポイントに対して頑強かつコンテキスト感知型の予測を容易にする空間的に正確なヒートマップを生成します。 https://arxiv.org/abs/2312.07526v1 まとめると、この研究の要点は以下の通りです: RTMOは高い精度とリアルタイム性を持つ姿勢推定フレームワークです。 RTMOはYOLOアーキテクチャ内で座標の分類をシームレスに統合しています。 RTMOは、座標ビンを使用した革新的な座標の分類技術を活用し、正確なキーポイントの位置特定を実現しています。 RTMOは、先端のワンステージ姿勢推定器を凌駕し、COCOで高い平均適合度を達成しながらも、大幅に高速です。 RTMOは難しいマルチパーソンのシナリオで優れた性能を発揮し、頑健な、コンテキスト感知型の予測のための空間的に正確なヒートマップを生成します。 RTMOは既存のトップダウンおよびワンステージのマルチパーソン姿勢推定手法のパフォーマンスと速度をバランスさせます。
中国のこのAI論文では、UniRepLKNetと呼ばれる画像、音声、時間系列データ解析においてクロスモーダル性能を向上させるための革新的な大規模カーネルConvNetアーキテクチャが紹介されています
CNN(畳み込みニューラルネットワーク)は、近年では画像認識のための人気のある技術となっています。物体検出、分類、セグメンテーションのタスクにおいて非常に成功しています。しかし、これらのネットワークがより複雑になるにつれて、新たな課題が浮上しています。テンセントAI Labと香港中文大学の研究者は、大規模カーネルCNNにおけるアーキテクチャの課題に対応するための4つのガイドラインを提案しました。これらのガイドラインは、大規模カーネルをビジョンのタスク以外の領域、例えば時系列予測や音声認識などに拡張して、画像認識の向上を目指しています。 UniRepLKNetは、非常に大きなカーネルを持つConvNetの有効性を探求し、空間畳み込みだけでなく、ポイントクラウドデータ、時系列予測、音声、ビデオの認識などのドメインにまで拡張します。以前の研究では、異なる大きなカーネルの種を紹介していましたが、UniRepLKNetはそのようなカーネルを持つConvNetのためのアーキテクチャ設計に焦点を当てています。UniRepLKNetは3Dパターン学習、時系列予測、音声認識の分野で専門モデルを上回るパフォーマンスを発揮します。テクニカルモデルよりもわずかに低いビデオ認識の精度を持ちながらも、UniRepLKNetはゼロから訓練された総合的なモデルであり、さまざまなドメインでの柔軟性を提供します。 UniRepLKNetは大規模カーネルを持つConvNet向けのアーキテクチャガイドラインを導入し、過剰な深さを避け、広範なカバレッジを重視しています。ガイドラインはVision Transformers(ViTs)の制限に対処し、効率的な構造に焦点を当て、畳み込み層の再パラメータ化、タスクベースのカーネルサイジング、3×3畳み込み層の組み込みを扱っています。UniRepLKNetは既存の大規模カーネルConvNetと最近のアーキテクチャを上回る、画像認識における性能と効率を示しています。時系列予測や音声認識でも普遍的な知覚能力を示し、ポイントクラウドデータの3Dパターン学習においても、専門のConvNetモデルを超える性能を持ちます。 UniRepLKNetのアーキテクチャは、ImageNetの精度が88.0%、ADE20KのmIoUが55.6%、COCOボックスAPが56.4%といった画像認識タスクにおけるトップクラスのパフォーマンスを達成しています。UniRepLKNetの普遍的な知覚能力は、グローバル気温と風速予測の課題においてMSEとMAEで競合他社を上回ることで示されています。UniRepLKNetはポイントクラウドデータの3Dパターン学習においても専門のConvNetモデルを超える性能を発揮します。このモデルは、セグメンテーションなどの下流タスクでも有望な結果を示し、多様なドメインでの優れたパフォーマンスと効率性を確認しています。 まとめると、研究のまとめは以下の通りです: 研究では、大規模カーネルConvNet向けの4つのアーキテクチャガイドラインを導入しています。 これらのガイドラインは大規模カーネルConvNetの特徴を重視しています。 これらのガイドラインに従って設計されたConvNetモデルであるUniRepLKNetは、画像認識タスクにおいて競合他社を上回る優れたパフォーマンスを発揮します。 UniRepLKNetはカスタマイズなしで時系列予測や音声認識などの領域で普遍的な知覚能力を示します。 UniRepLKNetはポイントクラウドデータの3Dパターン学習においても専門モデルを上回ります。 また、研究は非膨張性の大規模カーネル畳み込み層の性能を向上させるためにDilated Reparam Blockを導入しています。 この研究は貴重なアーキテクチャガイドラインを提供し、UniRepLKNetとその能力を紹介し、Dilated Reparam Blockの概念を示しています。
Find the right Blockchain Investment for you
Web 3.0 is coming, whether buy Coins, NFTs or just Coding, everyone can participate.