Learn more about Search Results 3 - Page 2

このAIの論文は、マルチビュー映像を使用して3Dシーンダイナミクスをモデリングするための画期的な方法を紹介しています

NVFiは、時間の経過に伴って進化する3Dシーンのダイナミクスを理解し予測するという複雑な課題に取り組んでいます。これは、拡張現実、ゲーム、映画製作などのアプリケーションにとって重要なタスクです。人間はこのようなシーンの物理学と幾何学を容易に理解しますが、既存の計算モデルはマルチビュービデオからこれらの特性を明示的に学習することに苦労しています。これは、ニューラル放射輝度場とその派生物を含む従来の手法が、学習された物理的なルールに基づいて将来の動きを抽出し予測する能力に欠けるためです。NVFiは、これらのギャップを埋めるために、純粋にマルチビュービデオフレームから導かれる分離された速度場を取り入れることで、大胆な目標を掲げています。 3Dシーンの動的な性質は、計算上の深刻な課題を提起します。最近のニューラル放射輝度場の進展により、観測された時間フレーム内でのビュー補間能力が優れていることが示されましたが、物体の速度などの明示的な物理的特性を学習する能力には限界があります。この制限により、将来の動きのパターンを正確に予測する能力も制約されます。物理学をニューラル表現に統合する現在の研究は、シーンのジオメトリ、外観、速度、粘性場を再構築することで有望な結果を示しています。しかし、これらの学習された物理的特性は、しばしば特定のシーン要素と絡み合っているか、補完的な前景セグメンテーションマスクを必要とするため、シーン間の移植性が制限されます。NVFiの画期的な目標は、学習観測を超えた予測能力を育むために、3Dシーン全体の速度場を分離し理解することです。 香港理工大学の研究者たちは、NVFiという包括的なフレームワークを導入しています。これは3つの基本的な要素を組み合わせています。第一に、キーフレームダイナミック輝度場は、3D空間のすべてのポイントに対して時間による体積密度と外観を学習するのを容易にします。第二に、フレーム間速度場は、各ポイントの時間による3D速度を捉えます。最後に、物理学に基づいた制約を加えたキーフレームとフレーム間の要素の組み合わせによる共同最適化戦略がトレーニングプロセスを統括します。このフレームワークでは、動的輝度場モデリングのための既存の時間依存NeRFアーキテクチャを採用する柔軟性を提供しながら、速度場のためにMLPなどの比較的単純なニューラルネットワークを使用します。その核心的なイノベーションは、第三の要素にあり、共同最適化戦略と特定の損失関数により、追加のオブジェクト固有の情報やマスクなしで分離された速度場の正確な学習が可能になります。 NVFiの革新的な進歩は、オブジェクト固有のデータやマスクを必要とせずに、マルチビュービデオフレームから3Dシーンの動力学をモデル化する能力に現れています。それは、シーンの運動ダイナミクスを統括する重要な要素である速度場の分離に精密に焦点を当て、数多くの応用の鍵を握っています。複数のデータセットを通して、NVFiは将来のフレームの予測、シーンの意味的な分解、異なるシーン間での速度の転送など、その優れたパフォーマンスと適応性を証明しています。 主な貢献と要点: 事前のオブジェクト情報なしでマルチビュービデオから動的な3Dシーンモデリングを行うための新しいフレームワークNVFiの導入。 効果的なネットワークトレーニングのためのニューラル速度場の設計と実装。 将来のフレーム予測、意味的なシーンの分解、シーン間速度の転送など、多様なデータセットでNVFiの能力を成功裏に実証し、優れたパフォーマンスを達成。

「AIおよび自動化により、2030年に存在しなくなるであろう6つのテクノロジージョブ」

「現在の進行方向に基づいて、バランスを保っているいくつかのテック系の職種をご紹介します」

「DevOps 2023年の状況報告書:主要な調査結果と洞察」

年次調査の結果が発表されました画期的な発見がありますこのレポートは、AIとドキュメンテーションが生産性と仕事の満足度に与える影響を詳しく調査しています

ルーシッドドリーマー:インターバルスコアマッチングを介した高品位のテキストから3D生成

最近のテキストから3DジェネレーティブAIフレームワークの進歩は、生成モデルにおける重要な節目を示していますこれらは、数多くの現実世界のシナリオで3Dアセットを作成する新たな可能性を開拓していますデジタル3Dアセットは現在、私たちのデジタル存在において不可欠な場所を占めており、複雑な環境やオブジェクトとの包括的な視覚化や対話を可能にしています

「安定拡散を使用したハイパーリアルな顔を生成する3つの方法」

あなたはベースモデルを使用してイメージを生成する方法を学び、画像の品質を向上するためにStable Diffusion XLモデルにアップグレードする方法、そして高品質の肖像画を生成するためにカスタムモデルを使用する方法を学びました

「CMUとマックス・プランク研究所の研究者が、画期的なAI手法「WHAM」を発表:ビデオからの正確かつ効率的な3D人間動作推定」

3Dヒューマンモーション再構築は、三次元で人間の動きを正確にキャプチャしてモデル化する複雑なプロセスです。カメラが動いている実世界の環境でキャプチャされたビデオは、足の滑りなどの問題がしばしば含まれており、この作業はさらに困難になります。しかし、カーネギーメロン大学とマックスプランクインテリジェントシステム研究所の研究者チームは、WHAM(World-grounded Humans with Accurate Motion)という手法を開発し、これらの課題に対応し、正確な3Dヒューマンモーション再構築を実現しました。 この研究では、画像から3Dヒューマンポーズと形状を回復するための2つの手法、モデルフリーとモデルベースのアプローチを見直しています。統計的なボディモデルのパラメータを推定するために、モデルベースの手法でディープラーニング技術の使用を強調しています。既存のビデオベースの3D HPS手法では、さまざまなニューラルネットワークアーキテクチャを介して時間的な情報を組み込んでいます。一部の方法では、慣性センサーなどの追加のセンサーを使用していますが、これらは侵入的な場合があります。WHAMは、3Dヒューマンモーションとビデオコンテキストを効果的に組み合わせ、事前知識を活用し、グローバル座標系で正確な3D人間活動の再構築を実現することで注目されています。 この研究では、単眼ビデオから3Dヒューマンポーズと形状を精度良く推定する際の課題に取り組み、グローバル座標の一貫性、計算効率、現実的な足-地面接触を強調しています。WHAMは、2Dキーポイントを3Dポーズに変換するためのモーションエンコーダ-デコーダネットワーク、時間的な手がかりのための特徴結合器、および足接触を考慮したグローバルモーション推定のための軌跡リファインメントネットワークを組み合わせて、AMASSモーションキャプチャとビデオデータセットを活用しています。これにより、非平面表面における精度が向上し、足の滑りが最小限に抑えられます。 WHAMはオンライン推論と正確な3Dモーション再構築のために単方向RNNを使用し、コンテキスト抽出のためのモーションエンコーダとSMPLパラメータ、カメラの移動、足-地面接触確率のためのモーションデコーダを備えています。モーションコンテキストの抽出にはバウンディングボックスの正規化手法を活用しています。ヒューマンメッシュリカバリで事前にトレーニングされた画像エンコーダは、フィーチャインテグレータネットワークを介して画像特徴とモーション特徴をキャプチャし統合します。軌跡デコーダはグローバル方向を予測し、リファインメントプロセスは足の滑りを最小化します。 WHAMは、合成AMASSデータでトレーニングされ、評価において既存の手法を凌駕しています。 https://arxiv.org/abs/2312.07531 WHAMは、現在の最先端の手法を凌駕し、フレームごとおよびビデオベースの3Dヒューマンポーズと形状の推定において優れた精度を示しています。WHAMは、モーションコンテキストと足接触情報を活用し、足の滑りを最小限に抑え、国際的な調整を向上させることで、正確なグローバル軌道推定を実現しています。この手法は、2Dキーポイントとピクセルの特徴を統合することで、3Dヒューマンモーション再構築の精度を向上させています。野外のベンチマークによる評価では、MPJPE、PA-MPJPE、PVEなどのメトリクスにおいてWHAMの優れた性能が示されています。 まとめると、この研究の主なポイントは以下の通りです: WHAMは、3Dヒューマンモーションとビデオコンテキストを組み合わせる革新的な手法を導入しました。 この手法は、3Dヒューマンポーズと形状の回帰を向上させます。 グローバル軌道推定フレームワークには、モーションコンテキストと足接触を組み込んでいます。 この手法は、足の滑りの課題に取り組んでおり、非平面の表面において正確な3Dトラッキングを保証します。 WHAMのアプローチは、3DPW、RICH、EMDBなどの多様なベンチマークデータセットで優れたパフォーマンスを発揮します。 この手法は、グローバル座標で効率的なヒューマンポーズと形状の推定を行います。 特徴統合と軌跡リファインメントにより、モーションとグローバル軌道の精度が大幅に向上します。 有益な除去研究によって、この手法の精度が検証されています。

「23andMeにおける複数の個人情報漏洩」

「盗まれた遺伝子データがテスト会社に対する集団訴訟につながる」

TDSベストオブ2023:ChatGPTとLLMについて

「2023年は、データサイエンティストや機械学習の専門家にとって、波瀾万丈な1年だったと言っても過言ではないでしょうが、過去12ヶ月のフィールドで見られた激動の活動量を完全に表現することはできません」

「2023年のAI タイムライン」

はじめに 人工知能(AI)は、技術的な進歩が人間のつながりの本質と共鳴する形で私たちの日常生活と交差する魅力的な領域です。今年は、単なるアルゴリズムを超えてAIを身近に感じる革新の物語が展開されました。2023年のAIの素晴らしいハイライトを探索しながら、この旅に参加しましょう。 AI 2023年のハイライト 2023年のAIの世界で行われた最大の発見、進歩、および世界的な変革の一部を紹介します。これらの進歩がどのように、技術が私たちの人間の体験にシームレスに統合される未来を形作っているのか、探求してみましょう。 2023年1月のAIハイライト この年は、AIが医療と健康の分野で重要な進展を示しました。MITの研究者はマサチューセッツ総合病院と連携し、CTスキャンに基づいて患者の肺がんのリスクを評価できるディープラーニングモデルを開発しました。また、革命的な進歩として、研究者たちはAIを使ってゼロから人工的な酵素やタンパク質を作り出すことが可能なAIを開発しました。 他にも多くのイノベーションの中で、人工知能は視覚障害のある人々が食料品を見つけるのを手助けするために手杖に統合されました。一方、ビジネスのフロントでは、OpenAIがMicrosoftとの数年間にわたる数十億ドルの取引を通じてAIの開発に大きく投資しました。 2023年2月のAIハイライト 2023年2月には、OpenAIのChatGPTに関する話題が最も盛り上がりました。このAI搭載のチャットボットは、アメリカ合衆国医師資格試験(USMLE)に合格し、その人気は1億人以上のユーザーにまで急上昇しました。 ChatGPTの現象に応えて、GoogleはAI会話の領域に新しい要素となるBard A.I.を導入しました。また、MicrosoftもChatGPTと統合された新しいBing検索エンジンの導入に重要な一歩を踏み出しました。 Metaは、Metaエコシステム内でAIの能力を向上させるというLLaMAを発表しました。一方、Amazon Web Services(AWS)は、一流のAIプラットフォームであるHugging Faceと提携し、AI開発者を支援しました。 画期的な成果として、オックスフォードの研究者たちはRealFusionを示し、単一の画像から完全な360°写真モデルを再構築することができる最新のモデルを実証しました。 2023年2月には、AIの世界は音楽生成の領域にも足を踏み入れました。Google ResearchはMusicLMを紹介し、さまざまなジャンル、楽器、概念で曲を作成できるトランスフォーマーベースのテキストからオーディオへのモデルを提供しました。一方、Baiduの研究者はERNIE-Musicを発表し、拡散モデルを使用して、波形領域での最初のテキストから音楽を生成するモデルを開発しました。これらのモデルは、AIと創造的表現の融合における重要な進歩を示しています。 2023年3月のAIハイライト 2023年3月には、創造的なAIはいくつかの興味深い進展を見せました。AdobeはFireflyというAIをバックアップする画像生成および編集ツールの範囲でGenAIの領域に参入しました。一方、Canvaはユーザー向けにAIパワードの仮想デザインアシスタントとブランドマネージャーを導入しました。 テックジャイアンツのAIプロジェクトは、第1四半期終盤に向けて全力で進展していました。OpenAIはChatGPTとWhisperというテキストから音声へのモデルのためのAPIを発売しました。OpenAIはまた、ChatGPTのためのいくつかのプラグインをリリースし、最も高度なAIモデルであるGPT-4を正式に発表しました。 HubSpotはユーザー向けにChatSpot.aiとContent Assistantという2つの新しいAIパワードツールを導入しました。ZoomはスマートコンパニオンのZoom…

『LLM360をご紹介します:最初の完全オープンソースで透明な大規模言語モデル(LLM)』

“`html オープンソースの大規模言語モデル(LLM)であるLLaMA、Falcon、Mistralなどは、AIのプロフェッショナルや学者向けにさまざまな選択肢を提供しています。しかし、これらのLLMの大部分は、エンドモデルの重みや推論スクリプトなどの一部のコンポーネントだけが利用可能であり、技術的なドキュメントでは、一般的な設計の側面や基本的なメトリックに焦点を絞った内容が多いです。このアプローチでは、LLMのトレーニング手法の明確性が低下し、チームがトレーニング手順のさまざまな側面を継続的に解明するための努力が重複してしまいます。 Petuum、MBZUAI、USC、CMU、UIUC、UCSDの研究者チームが、LLM360を導入しました。これは、エンドツーエンドのLLMトレーニングプロセスを透明で再現可能にすることにより、オープンかつ協力的なAIの研究をサポートするイニシアチブです。LLM360は、トレーニングコードとデータ、モデルのチェックポイント、中間結果などのすべてをコミュニティに提供することを主張する、完全なオープンソースのLLMです。 LLM360に最も近いプロジェクトはPythiaであり、LLMの完全な再現性を目指しています。GPT-JやGPT-NeoXなどのEleutherAIモデルは、トレーニングコード、データセット、中間モデルのチェックポイントと共にリリースされており、オープンソースのトレーニングコードの価値を示しています。INCITE、MPT、OpenLLaMAは、トレーニングコードとトレーニングデータセットがリリースされ、RedPajamaも中間モデルのチェックポイントを公開しています。 LLM360は、AMBERとCRYSTALCODERの2つの7BパラメータLLMをリリースし、そのトレーニングコード、データ、中間チェックポイント、分析も提供します。事前トレーニングデータセットの詳細、データの前処理、フォーマット、データミキシングの比率、LLMモデルのアーキテクチャの詳細については、研究で詳しく説明されています。 この研究では、以前の研究で導入された記憶スコアの使用と、メトリック、データチャンク、チェックポイントの公開により、研究者が対応関係を容易に見つけることができるようになることを示しています。研究ではまた、LLMが事前にトレーニングされたデータを削除することの重要性や、データのフィルタリング、処理、トレーニング順序の詳細についても強調しています。 研究では、ARC、HellaSwag、MMLU、TruthfulQAの4つのデータセットについてのベンチマーク結果が示され、モデルの事前トレーニング中のパフォーマンスが示されています。HellaSwagとARCの評価スコアはトレーニング中に単調に増加し、TruthfulQAのスコアは減少します。MMLUのスコアは最初に減少し、その後成長します。AMBERのパフォーマンスはMMLUなどのスコアで競争力があるものの、ARCでは遅れています。ファインチューニングされたAMBERモデルは、他の類似モデルと比較して強力なパフォーマンスを示します。 LLM360は、オープンソースLLMの完全かつ包括的なイニシアチブであり、オープンソースのLLM事前トレーニングコミュニティ内での透明性を推進するものです。この研究では、AMBERとCRYSTALCODERの2つの7B LLMをトレーニングコード、データ、中間モデルのチェックポイント、分析と共にリリースしています。研究では、チェックポイント、データチャンク、評価結果を公開することにより、包括的な分析と再現性を可能にするため、すべての角度からLLMをオープンソース化することの重要性を強調しています。 “`

Find the right Blockchain Investment for you

Web 3.0 is coming, whether buy Coins, NFTs or just Coding, everyone can participate.

Advertising with us