Learn more about Search Results AI - Page 2
- You may be interested
- 自動車産業の未来は、話す車かもしれません
- 「UTオースティン大学の研究者が、安定し...
- 「ChatGPT を PDF の OCR として利用する...
- UCバークレーとSJTU中国の研究者が、言語...
- 「GCPの生成AI機能を活用して変革するBFSI...
- データサイエンスにおける統計学:理論と概要
- 共和分対スパリアス相関:正確な分析のた...
- シンプルな人々が派手なニューラルネット...
- ウィンブルドンがAIによる実況を導入
- 「大規模言語モデルの微調整方法:ステッ...
- 生成AIの逆説を調和させる:生成と理解に...
- 「OceanBaseを使用して、ゼロからLangchai...
- 「データ民主化:大企業が取り入れる5つの...
- 中国語話者向けのHuggingFaceブログをご紹...
- アマゾンセージメーカーでのLlama 2のベン...
「H2O.aiとOptunaを使用した高度な予測モデリングのためのスタックアンサンブル」
私たちは皆、予測モデリングにおいてアンサンブルモデルが単一のモデルよりも優れたパフォーマンスを発揮することを知っていますおそらく、バギングやブースティングといった一般的なアンサンブル手法についてはすべて聞いたことがあるでしょうさらに、ランダムフォレストなどもよく知られています…
AI 幻覚の危険性:課題と影響の解明
「AIの幻覚に魅了される探求に乗り出しましょう ― その複雑な原因を解明し、結果をナビゲートし、重要な保護策を見つけましょう」
「5つ星アプリを構築する:AIと自動化を利用したモバイルテストの向上」
ソフトウェア開発チームは、高品質なモバイルアプリ体験を提供するために、強力で低コストのツールが必要ですAIと自動化は解決策を提供します
「無料ハーバード講座:PythonでのAI入門」
「Pythonを使った人工知能の学びに最適なコースを探していますか?ハーバード大学の無料コースをチェックしてみてください!」
私のウェブサイトのためのチャットボットを作るのが簡単になりました-GenAI
最近、ウェブサイトの顧客エクスペリエンス向上のためにエキサイティングなプロジェクトに着手しましたそれはサポートのためにチャットボットを構築することでしたこの旅は挑戦的でありながらも報酬的であり、貴重な知見を提供しました...
一般的な世界モデル:ランウェイAI研究が新しい長期研究の取り組みを開始
ワールドモデルは、環境の内部理解を構築し、その知識を利用してその空間内の将来のイベントを予測することを目指すAIシステムです。研究者はこれらのワールドモデルを主に制御された環境でテストしており、ビデオゲームや運転などの特定のタスクを含むものです。最終目標は、予測不可能な現実世界で遭遇するさまざまな状況を処理できるモデルを作成することです。 そのようなシステムを作成する初の試みの1つは、Gen-2ビデオ生成システムです。これは、ものの動きを基本的に理解することを示す短い動画を作成しようとする初心者の画家のようなものです。ただし、より複雑なタスクに取り組む際には厳しいもので、急速なカメラの移動や精巧なオブジェクトの挙動を含むシナリオに苦しんでいます。これは、現在のワールドモデルの限界を明らかにし、研究者がこれらのシステムを改善して発展させることに深く関与するきっかけとなっています。 効果的なワールドモデルを構築するための道のりにはいくつかの課題があります。重要な側面の1つは、これらのモデルが環境の正確かつ一貫したマップを生成する必要があるということです。動きを認識するだけでなく、与えられたスペース内でのナビゲーションと相互作用に関わるものです。さらに、これらのモデルは、世界のダイナミクスだけでなく、その住人の行動も理解しシミュレートする必要があります。これは多面的な課題であり、継続的な研究とイノベーションが求められます。 研究者たちはこれらの課題に取り組んでおり、ワールドモデルの適応性と能力を向上させることを目指しています。ビデオゲームにおけるキャラクターのアップグレードと考えるとイメージしやすいですが、これらのモデルは信頼性のあるマップの生成と多様で複雑なシナリオを通じたナビゲーションのレベルアップが必要です。目標は、現実世界の予測不可能性に対応するスキルを身につけさせることです。 ワールドモデルの効果を測定するため、研究者はさまざまな側面を測定するメトリクスを使用しています。これらのメトリクスは、モデルが一貫した正確なマップを生成する能力、さまざまな環境でのナビゲーション能力、および人間の行動の現実的なシミュレーションなど、さまざまな側面を測定します。これらの数量化可能な指標は、進捗状況と進化し続けるワールドモデルの能力を評価するための基準として利用されます。 結論として、一般的なワールドモデルの開発は、課題と興味深い見通しに満ちた進行中のプロセスです。研究者がこれらのモデルを磨き続けることで、さまざまな現実世界のシナリオでのシミュレーションと予測が向上することが期待されています。これらのモデルの進化は、AIの能力の限界を押し広げるだけでなく、複雑な環境の深い理解とダイナミックな世界との改善されたAIの相互作用の可能性を持っています。 この投稿はGeneral World Models: Runway AI Research Starting a New Long-Term Research Effortの記事、「MarkTechPost」で最初に公開されました。
このAI論文では、既知のカメラパラメータなしで新しい視点合成を行うために、COLMAP-Free 3D Gaussian Splatting(CF3DGS)を提案しています
ニューラルレンダリングの進歩により、シーンの再構築や新しい視点の生成において重要なブレイクスルーがもたらされました。しかし、その効果はカメラの姿勢の正確な予備計算に大きく依存します。この問題を最小化するために、事前計算されたカメラの姿勢がないNeural Radiance Fields(NeRFs)を訓練するためにさまざまな取り組みが行われています。しかし、NeRFsの暗黙的な表現は、3Dの構造とカメラの姿勢を同時に最適化するのが困難です。 UCサンディエゴ、NVIDIA、UCバークレーの研究者らは、COLMAP-Free 3D Gaussian Splatting(CF-3DGS)を導入しました。これは、ビデオの時間的な連続性と明示的なポイントクラウド表現の2つの重要な要素を高めています。すべてのフレームを一度に最適化するのではなく、CF-3DGSはカメラが移動するにつれてシーンの3Dガウスを連続的な形で「成長させる」一つの構造を構築します。CF-3DGSは各フレームに対してローカルな3Dガウスセットを抽出し、全体のシーンのグローバルな3Dガウスセットを維持します。 https://arxiv.org/abs/2312.07504 リアルな画像を視点から生成するためにさまざまな3Dシーン表現が使用されており、平面、メッシュ、ポイントクラウド、マルチプレーンイメージなどが含まれます。NeRFs(Neural Radiance Fields)は、その写真のようなリアルなレンダリング能力のために、この分野で注目を集めています。3DGS(3D Gaussian Splatting)メソッドは、純粋な明示的な表現と微分を利用したポイントベースのスプラッティング方法を使用して、ビューのリアルタイムレンダリングを可能にします。 CF-3DGSは既知のカメラパラメータを必要としないで合成ビューを実現します。それは3D Gaussian Splatting(3DGS)とカメラの姿勢を同時に最適化します。近くのフレームから相対カメラ姿勢を推定するためにローカルな3DGSメソッドを使用し、未観測のビューから3Dガウスを進行的に展開するためにグローバルな3DGSプロセスを使用しています。CF-3DGSは、明示的なポイントクラウドを使用してシーンを表現し、3DGSの機能とビデオストリームに固有の連続性を活用します。このアプローチは、入力フレームを順次処理し、3Dガウスを進行的に展開してシーンを再構築します。この手法により、トレーニングと推論の速度が高速化されます。 https://arxiv.org/abs/2312.07504 CF-3DGSメソッドは、先行の最先端技術よりもポーズ推定の耐性が高く、新規ビューの合成品質も優れています。この手法は、より複雑で挑戦的なカメラの動きを示すCO3Dビデオで検証され、ビューの合成品質においてNope-NeRFメソッドを上回る結果を示しました。このアプローチは、CO3D V2データセットにおいてすべてのメトリックでNope-NeRFeをしのぎ、特に複雑なカメラの動きがあるシナリオでのカメラの姿勢推定の耐性と精度を示しています。 まとめると、CF-3DGSはビデオの時間的な連続性と明示的なポイントクラウド表現を利用してビューを効果的かつ堅牢に合成する方法です。この方法は、主にビデオストリームや順序付けられた画像コレクションに適しており、Structure-from-Motion(SfM)前処理の必要はありません。また、非順序の画像コレクションに対応するための将来の拡張の可能性もあります。
スタンフォード大学の研究者が、大規模言語モデル(LLM)における相互補完的および貢献的帰属に対する統一的なAIフレームワークを紹介します
大規模言語モデル(LLMs)は、人工知能(AI)の指数関数的に進化する分野での最新の進歩です。これらのモデルは、テキスト生成、質問応答、テキスト要約などのタスクにおいて驚異的なパフォーマンスを発揮しますが、生成されるデータの正確性とセキュリティには課題があります。これらのモデルは、時には虚偽の情報を製造または生成し、信頼性のない出力を作り出すことがあります。 モデルの出力が害を引き起こす場合、その源泉を追跡することは道徳的および法的な責任を割り当てるために必要ですが、帰属は創造的な技術的研究が必要な困難なタスクです。LLMの出力の帰属に関する研究は、主に2つの領域に焦点を当てています:トレーニングデータの帰属(TDA)および引用生成。 最近の研究では、スタンフォード大学の研究チームが大規模言語モデルの帰属について統一フレームワークを導入しました。この研究は引用生成とTDAを組み合わせ、確証的および寄与的な帰属の下に統一的なフレームワークを提供します。寄与的帰属は作成されたコンテンツの源泉の検証に重点を置きますが、確証的帰属は外部の知識に基づいて出力が正確であることを検証しようとします。 チームはさまざまな状況で望ましい属性を詳細に検討し、各形式の帰属について正確な定義を提供しました。この方法は、両方の種類の徹底的な帰属を提供できる帰属システムの創造と評価を促進するものであり、言語の帰属の明確で柔軟な概念に向けた第一歩です。 このフレームワークは、その有用性を示すために実際のユースケースで利用されています。例は、一方または両方の種類の帰属が必要となる状況を示しています。法的文書の作成のプロセスでは、内部的な妥当性、つまりトレーニングデータの帰属によって情報の源泉と信頼性を確認し、外部的な妥当性、つまり引用の作成によって素材が法的要件に準拠していることを確認します。同様に、医療の質問応答の文脈では、応答の正確性の検証とモデルの知識に影響を与える源泉の理解のために両方の帰属が重要です。 チームは次のように主な貢献をまとめました。 共有要素を強調した帰属の共有フレームワークを示すインタラクションモデルが提示されました。 両方の種類の帰属に関連する属性を見つけることによって、組み合わせたフレームワークが改善されました。 現在の寄与的および確証的な帰属の実装の包括的な分析が行われ、現実世界での使用に関する洞察が提供されました。 法的文書の作成などの帰属に重要なシナリオについて、効果的に必要な特性を記述しました。 結論として、このフレームワークは素晴らしい導入であり、帰属システムの評価の標準化に役立ち、さまざまな分野でその効果の体系的かつ比較可能な評価を推進します。これにより、大規模言語モデルの使用を改善し促進し、出力の信頼性の重要な問題を解決することができます。
マーク外:AI進捗競争におけるメトリクスゲーミングの落とし穴
「共産主義のネイル工場から資本主義のボット戦まで、この記事では、虚偽の基準や狭視的なハイプサイクルが意味のある進歩を阻害する永遠のリスクに焦点を当てています」
AIの物体認識をどのように進化させることができるのか? このAIの論文は、強化された画像と動画の分析のための普遍的な物体レベルの基礎モデルGLEEを紹介します
画像やビデオの物体認識は、機械に視覚世界を解読する力を与えます。仮想の探偵のように、コンピュータビジョンシステムはピクセルをスキャンし、デジタル体験のキャンバスに描かれた多くの物体を認識、追跡、理解します。このディープラーニングの力による技術的な能力は、自動運転車が都市の風景をナビゲートすることから、視覚的なエンカウンターにより多くの知能を追加する仮想アシスタントまで、変革的な応用の扉を開きます。 中国科学技術大学、字節跳動、ジョンズ・ホプキンズ大学の研究者たちは、画像とビデオの物体認識のための多目的モデルGLEEを紹介しています。GLEEは、物体の位置特定と識別に優れており、タスクに固有の適応なしでさまざまなタスクに対して優れた汎化性能を示します。大規模言語モデルの統合も可能であり、多モーダル研究のための普遍的な物体レベルの情報を提供します。さまざまなデータソースからの知識の取得能力により、効率が向上し、異なる物体認識タスクの処理能力が向上します。 GLEEは、画像エンコーダ、テキストエンコーダ、ビジュアルプロンプタを統合し、多モーダル入力処理と一般化物体表現予測を行います。Objects365、COCO、Visual Genomeなどのさまざまなデータセットで訓練されたGLEEは、オープンワールドのシナリオで物体の検出、セグメンテーション、トラッキング、グラウンディング、識別を行うための統一されたフレームワークを使用します。動的なクラスヘッドを持つMaskDINOに基づいたオブジェクトデコーダは、予測のために類似性計算を使用します。物体検出とインスタンスセグメンテーションでプリトレーニングされた後、結合トレーニングにより、さまざまな下流の画像とビデオのタスクにおいて最先端のパフォーマンスを実現します。 GLEEは、特定のタスクに特化した適応なしで多様な下流のタスクに対応する傑出した汎化性能と拡張性を示しました。物体検出、インスタンスセグメンテーション、グラウンディング、マルチターゲットトラッキング、ビデオインスタンスセグメンテーション、ビデオオブジェクトセグメンテーション、インタラクティブセグメンテーションとトラッキングなど、さまざまな画像とビデオのタスクで優れたパフォーマンスを発揮します。GLEEは他のモデルに統合された場合でも最先端のパフォーマンスを維持し、その表現の多様性と効果的な性能を示します。ゼロショットの汎化性能は、自動的にラベル付けされた大量のデータを組み込むことでさらに向上します。また、GLEEは基盤モデルとしての役割も果たします。 https://arxiv.org/abs/2312.09158 GLEEは、現在のビジュアル基盤モデルの限界を克服し、正確かつ普遍的な物体レベルの情報を提供する画期的な一般物体基盤モデルです。GLEEは多様な物体中心のタスクに堪能であり、ゼロショットの転送シナリオでも特に優れた汎化性能を示します。さまざまなデータソースを使用して一般的な物体表現を組み込むことで、スケーラブルなデータセットの拡張とゼロショットの能力を向上させます。モデルは複数のデータソースをサポートしており、追加の注釈を容易に組み込むことで、さまざまな下流のタスクにおいて最先端のパフォーマンスを実現し、既存のモデルを凌駕します。 これまで行われた研究の範囲と将来の研究の方向は、以下に焦点を当てることができます: 複雑なシナリオや長尾分布を持つチャレンジングなデータセットを扱うGLEEの能力を拡大するための継続的な研究です。 特化したモデルを統合することで、GLEEの普遍的な物体レベル表現を活用し、マルチモーダルなタスクの性能を向上させることを目指しています。 DALL-Eなどのモデルと同様に、広範な画像キャプションのペアをトレーニングすることで、GLEEのテキスト指示に基づいた詳細な画像コンテンツの生成の可能性を探っています。 オブジェクトレベルのタスクへの応用範囲を広げるために、GLEEの物理的な文脈を組み込んだオブジェクトレベルの情報を強化しています。 インタラクティブなセグメンテーションとトラッキングの機能のさらなる開発は、さまざまなビジュアルプロンプトの探索やオブジェクトセグメンテーションのスキルの改善を含みます。
Find the right Blockchain Investment for you
Web 3.0 is coming, whether buy Coins, NFTs or just Coding, everyone can participate.