Learn more about Search Results 3 - Page 8
- You may be interested
- フロントエンド開発のトレンド
- 時間の経過とともに失敗する可能性のある...
- Pythonを使用してTenacityを使用してリト...
- 新しいLAMPスタック:生成AI開発の革新を...
- 「目指すべき人工知能の高収入の仕事6選」
- AIを活用した言語学習アプリの構築:2つの...
- 「Pandasによるデータクリーニング」
- テキストから画像合成を革新する:UCバー...
- 「LeanTaaSの創設者兼CEO、モハン・ギリダ...
- 「iOSのための10の最高のデータ復旧ツール...
- 「エローの有名なレーティングシステムに...
- 「データサイエンティストが読むべきトッ...
- 「カナダでウェブサイトを立ち上げる方法」
- 「Polarsによるデータパイプライン:ステ...
- Orca LLM:ChatGPTの推論プロセスをシミュ...
「中国のAI研究は、GS-SLAMを導入し、高度な3Dマッピングと位置特定のための新しい手法を紹介します」
上海AI研究所、復旦大学、西北工業大学、香港科技大学の研究者たちは、GS-SLAMという3Dガウス表現ベースの同時位置推定と地図作成(SLAM)システムを開発しました。この計画の目標は、精度と効率のバランスを実現することです。GS-SLAMはリアルタイムの微分可能なスプラッティングレンダリングパイプライン、適応的な拡張戦略、およびコーストゥファインの技術を使用して、姿勢追跡を改善し、ランタイムを短縮し、より堅牢な推定を実現します。このシステムは、ReplicaとTUM-RGBDのデータセットで競争力のあるパフォーマンスを発揮し、他のリアルタイム手法を上回っています。 この研究では、手作業の特徴ベース、ディープラーニング埋め込み、およびNeRFベースのアプローチに基づく既存のリアルタイム密なビジュアルSLAMシステムについて検討しました。GS-SLAMの導入まで、カメラ姿勢推定とリアルタイムマッピングに3Dガウスモデルを使用した研究が不足していることを強調しています。GS-SLAMは、リアルタイムの微分可能なスプラッティングレンダリングパイプラインと適応的な拡張戦略を組み合わせ、効率的なシーン再構築を実現する革新的な3Dガウス表現を採用しています。確立されたリアルタイムSLAM手法と比較して、この手法はReplicaとTUM-RGBDのデータセットで競争力のあるパフォーマンスを示しています。 この研究では、従来のSLAM手法が細かい密な地図を作成する上で直面する課題に取り組み、GS-SLAMという新しいRGB-D密なSLAM手法を紹介しました。GS-SLAMは、3Dガウスシーン表現とリアルタイムの微分可能なスプラッティングレンダリングパイプラインを活用して、速度と精度のトレードオフを向上させています。提案された適応的な拡張戦略は新たに観測されたシーンジオメトリの効率的な再構築を実現し、コーストゥファインの技術はカメラ姿勢推定を向上させます。GS-SLAMは、追跡、マッピング、およびレンダリングのパフォーマンスを改善し、ロボット、仮想現実、拡張現実の応用における密なSLAM機能の重要な進歩を提供します。 GS-SLAMは、マッピングとRGB-D再レンダリングのために3Dガウス表現とリアルタイムの微分可能なスプラッティングレンダリングパイプラインを使用しています。シーンジオメトリの再構築とマッピングの向上には、適応的な拡張戦略が特徴として採用されています。カメラトラッキングでは、コーストゥファインの技術が信頼性のある3Dガウス表現の選択に使用され、ランタイムが短縮され、堅牢な推定が確保されます。GS-SLAMは、ReplicaとTUM-RGBDのデータセットで最先端のリアルタイム手法に対して競争力のあるパフォーマンスを発揮し、同時位置推定と地図作成の効率的かつ正確なソリューションを提供します。 GS-SLAMはReplicaとTUM-RGBDのデータセットでNICE-SLAM、Vox-Fusion、およびiMAPを上回ります。さまざまなメトリックでCoSLAMと同等の結果を達成します。GS-SLAMは構築されたメッシュに明確な境界と詳細を表示し、優れた再構築パフォーマンスを示します。トラッキングに関しては、Point-SLAM、NICE-SLAM、Vox-Fusion、ESLAM、およびCoSLAMを上回ります。GS-SLAMは約5FPSの実行速度でリアルタイムアプリケーションに適しています。 GS-SLAMの効果は、高品質な深度情報の入手可能性に依存しており、3Dガウスの初期化と更新のために深度センサーの読み取りに頼っています。この手法は大規模なシーンにおいてメモリ使用量が増加する傾向があり、今後の課題としてこの制限をニューラルシーン表現の統合を通じて緩和することを計画しています。この研究はこれらの制約を認識していますが、適応的な拡張戦略とコーストゥファインのカメラトラッキング技術の潜在的な制約についてのさらなる洞察が必要です。そのコントロールを包括的に評価するためには、さらなる分析が必要です。 まとめると、GS-SLAMは速度と精度のバランスを提供する密なビジュアルSLAMタスクの有望なソリューションです。適応的な3Dガウスの拡張戦略とコーストゥファインのカメラトラッキングにより、ダイナミックで詳細なマップの再構築と堅牢なカメラ姿勢推定が実現されます。高品質な深度情報への依存と大規模なシーンでの高メモリ使用量にもかかわらず、GS-SLAMは競争力のあるパフォーマンスと優れたレンダリング品質を示しています、特に詳細なエッジ領域において。今後の改善にはニューラルシーン表現の統合が計画されています。
学ぶための勇気: L1&L2正則化の解明(パート3)
「‘MLの学びへの勇気:L1とL2正則化の解読’ 第3回目にお帰りなさい前回は、正則化の目的について掘り下げ、L1とL2の方法を解読しました…」
『オープンソースLLMの歴史:模倣と整合性(パート3)』
オープンソースの大規模言語モデル(LLM)に関する以前の研究の大部分は、事前訓練ベースモデルの作成に重点を置いていましたしかしながら、これらのモデルは微調整されていないため、失敗することがあります...
2023年は大規模言語モデルの年でした:当時と現在の比較
2023年は、言語モデルの大規模な開発が前例のない勢いで進展した年となりました新しいモデルが驚くほど速いスピードで登場しましたそこで、これらの進歩を見てみましょう誰がそれを推進し、この年はどのようなものなのかを年の初めに、Google AIは...
3Dアーティストのヌルハン・イスマイルは、Adobe After EffectsとBlenderを使用して、イソメトリックな革新を「NVIDIA Studio」にもたらす
編集者の注:この投稿は、弊社の週刊In the NVIDIA Studioシリーズの一部で、注目されたアーティストを称え、クリエイティブなヒントやトリックを提供し、NVIDIA Studioテクノロジーがクリエイティブなワークフローを向上させる方法を示しています。 今週の才能あるIn the NVIDIA Studioアーティスト、Nourhan Ismailさんは、文字通りのNVIDIAスタジオを作りました。 彼女の作品「Creator by Day, Gamer by Night」は、イスマイールさんが知られる等角アートスタイルと印象的なグラフィカルな忠実さで作られており、鮮やかな色彩と遊び心のあるディテールに満ちています。また、彼女の「仕事を一生懸命に、遊びを一生懸命に」という3Dアーティスト、インテリアデザイナー、ゲームレベルデザイナーとしての考えを捉えています。 同じアートスタイルは、IsmailさんがリードするNVIDIA Studio Sessions YouTubeミニシリーズでも紹介されており、入稿から最終レンダリングまでの手順についてのステップバイステップのチュートリアルを提供しています。 facial Animations Made Easier…
楽しみと利益のために2023年にシンプルなAIアプリケーションを作る
「最近、ソフトウェア市場のこのセグメントがどれほどの関心を集めているかを考えると、独自のAIパワードアプリのプロジェクトを実施することは魅力的です」
「ODSC West 2023の優れたバーチャルセッションをこちらでご覧ください」
ODSCウエストは終了し、私たちは1年間待たなければならないでしょうそれまでに、仮想セッションの録画がオンデマンドで利用可能になりました!ソリューションショーケースのトークやキーノートのトークは無料で利用できますトピックに関する詳細な情報を提供するトレーニングセッションなどもあります...
「One-2-3-45++に出会ってみましょう:おおよその1分で単一の画像を詳細な3Dテクスチャメッシュに変換する革新的な人工知能手法」
UCサンディエゴ、浙江大学、清華大学、UCLA、およびスタンフォード大学の研究者たちは、高速かつ高品質な3Dオブジェクト生成のための革新的なAI手法「One-2-3-45++」を発表しました。この手法は、まず2次元拡散モデルを活用し、一貫したマルチビュー画像の生成のために微調整を行います。次に、これらの画像を詳細な3Dのテクスチャつきメッシュに変換するために、マルチビューによる条件付きの3Dネイティブ拡散モデルが使用されます。この手法により、約1分間で入力画像によく似た高品質で多様な3Dアセットが合成され、実用アプリケーションにおける速度と忠実度の課題に取り組まれています。 One-2-3-45++は、1枚のRGB画像からわずか1分未満で高品質な3Dオブジェクトを生成する手法です。マルチビュー画像を活用し、生成されたメッシュのテクスチャを軽量の最適化プロセスを介して改善します。比較的な評価では、One-2-3-45++がCLIPの類似度スコアとユーザーの選好スコアにおいてベースライン手法よりも優れていることが示されています。3D拡散モジュールの効果に対するマルチビュー画像の重要性が強調され、一貫したマルチビューの生成において既存手法に対して改善が見られました。 この研究は、単一の画像やテキストに基づいて3D形状を生成するという課題に取り組んでおり、さまざまなアプリケーションにとって重要です。既存の手法は、3Dトレーニングデータの不足により未知のカテゴリにおいて汎化する際に改訂する必要があります。提案されたOne-2-3-45++手法は、以前のOne-2-3-45の欠点を克服し、一貫したマルチビュー画像を同時に予測し、マルチビューによる条件付きの3D拡散ベースモジュールを使用して効率的かつ現実的な3D再構築を実現します。この手法は、細かい制御を持ちつつ1分未満で高品質な結果を達成し、ベースライン手法を上回っています。 広範なマルチビューと3DペアリングでトレーニングされたOne-2-3-45++モデルは、各ステージに別々の拡散ネットワークを使用しています。最初のステージでは通常の3D畳み込みを使用して完全な3D占有ボリュームを作成し、2番目のステージでは3Dスパース畳み込みを3Dライトボリュームに取り入れます。マルチビュー画像によって誘導される軽量の改善モジュールは、テクスチャの品質を向上させます。CLIPの類似度スコアとユーザーの選好スコアを含む評価指標は、この手法がベースライン手法を上回っていることを示しています。ユーザー調査によっても品質が検証され、既存手法と比較してランタイムの効率性が強調されました。 One-2-3-45++はCLIPの類似度スコアとユーザーの選好スコアにおいてベースライン手法を上回し、優れた品質とパフォーマンスを示しています。改善モジュールはテクスチャの品質を向上させ、CLIPの類似度スコアを高めることにつながります。さらに、この手法は最適化ベースの手法と比較して優れたランタイムの利点を提供し、迅速な結果を提供します。 まとめると、One-2-3-45++は、1枚の画像から迅速かつ正確に高品質な3Dテクスチャ付きメッシュを生成する非常に効率的なテクノロジーです。ユーザー調査によって、入力画像との品質と整合性において他のテキストから3Dモデリング手法よりも優れていることが検証されました。さらに、最適化ベースの代替手法を上回し、迅速な結果を提供します。 将来の研究は、より大規模かつ多様な3Dトレーニングデータセットの活用、追加の後処理技術の探求、テクスチャの改善モジュールの最適化、幅広いユーザースタディの実施、および他の情報タイプの統合に注力する必要があります。この手法を仮想現実、ゲーム、コンピュータ支援設計などのさまざまな分野で適用する際の有効性と潜在的な影響を評価することが重要です。
『LEOと出会いましょう:先進的な3Dワールドインタラクションとタスクソルビングのための画期的なエンボディードマルチモーダルエージェント』
複数のタスクやドメインを重要な再プログラミングや再トレーニングなしに処理できるAIシステムは、ジェネラリストエージェントです。これらのエージェントは、様々なドメインにわたる知識とスキルを一般化し、さまざまな問題の解決において柔軟性と適応性を示すことを目指しています。トレーニングや研究の目的でのシミュレーションでは、しばしば3D環境が利用されます。これらのシミュレーションにおけるジェネラリストエージェントは、異なるシナリオに適応し、経験から学び、仮想空間内でタスクを実行することができます。たとえば、パイロットや外科医向けのトレーニングシミュレーションでは、これらのエージェントはさまざまなシナリオを再現し、適切に対応することができます。 3Dの世界におけるジェネラリストエージェントの課題は、三次元空間の複雑さの処理、多様な環境にわたって一般化する堅牢な表現の学習、および多次元的な環境の考慮を含んだ意思決定です。これらのエージェントは、強化学習、コンピュータビジョン、および空間的な推論といった技術を用いて、これらの環境内で効果的にナビゲーションや対話を行います。 北京総合人工知能研究所、CMU、北京大学、清華大学の研究者は、LLMベースのアーキテクチャで訓練されたLEOという汎用エージェントを提案しています。LEOは汎用的に構成されたマルチモーダルかつマルチタスキングエージェントです。LEOは、共有モデルアーキテクチャと重みを持つ形で知覚、基礎付け、推論、計画、行動を行うことができます。LEOは、具象視点のためのエゴセントリックな2D画像エンコーダと、第三者の大域的な視点のためのオブジェクトセントリックな3Dポイントクラウドエンコーダを通じて知覚します。 オートリグレッシブなトレーニング目標を用いることで、LEOはタスクに依存しない入出力で訓練することも可能です。3Dエンコーダは、観測されたエンティティごとにオブジェクトセントリックなトークンを生成します。このエンコーダの設計は、さまざまな具現化を持つタスクに柔軟に適応できます。LEOは、3Dビジョンと言語の対応および3Dビジョンと言語とアクションの基本原則に基づいています。チームはトレーニングデータを入手するため、オブジェクトレベルおよびシーンレベルのマルチモーダルタスクを含んだ包括的なデータセットを編集・生成しました。これにより、3D世界に対する深い理解と相互作用が求められる、規模と複雑さを超えたデータが豊富に取得されました。 また、チームはシーングラフに基づくプロンプティングおよびリファインメント手法、そしてオブジェクトセントリックな連鎖思考(O-CoT)を提案し、生成されたデータの品質を向上させ、データの規模と多様性を大幅に豊かにし、さらにLLMの空想を排除しました。チームはLEOを広範なタスクで評価し、具象的なナビゲーションやロボット操作などのタスクにおけるLEOの能力を証明しました。また、トレーニングデータを単純にスケーリングするだけで一貫したパフォーマンスの向上が見られました。 結果は、LEOの反応が豊かで情報豊かな空間関係を含み、3Dシーンに正確に基づいていることを示しています。LEOはシーンに存在する具体的なオブジェクトおよびこれらのオブジェクトに関する具体的なアクションを持っています。LEOは、3Dビジョン言語と具現化された動きのギャップを埋めることができます。チームの結果は、彼らの共同学習の可能性を示しています。
新しいNVIDIA GPUベースのAmazon EC2インスタンスを3つ紹介します
アマゾン・エラスティック・コンピュート・クラウド(Amazon EC2)の高速化コンピューティングポートフォリオは、人工知能(AI)、機械学習(ML)、グラフィックス、高性能コンピューティング(HPC)のワークロードに電力を供給するための最も広範なアクセラレータの選択肢を提供しています私たちは、最新のNVIDIA GPUを搭載した3つの新しいインスタンスでこのポートフォリオを拡大することを発表することを喜んでいます:Amazon EC2 P5eインスタンスをパワー[...]
Find the right Blockchain Investment for you
Web 3.0 is coming, whether buy Coins, NFTs or just Coding, everyone can participate.