「GO TO Any Thing(GOAT)」とは、完全に見たことのない環境で、画像、言語、カテゴリのいずれかで指定されたオブジェクトを見つけることができる、ユニバーサルなナビゲーションシステムです
「GO TO Any Thing(GOAT)」:あらゆる何かを見つけるためのユニバーサルナビゲーションシステム
このsystemですGOATは、イリノイ大学アーバナ・シャンペーン校、カーネギーメロン大学、ジョージア工科大学、カリフォルニア大学バークレー校、Meta AI Research、Mistral AIの研究者チームによって開発されました。GOATは、家庭や倉庫の環境での拡張された自律運転を目指した普遍的なナビゲーションシステムです。GOATは、カテゴリラベル、ターゲット画像、言語の説明から目標を解釈できる多様なモーダルシステムです。過去の経験から利益を得るライフロングシステムです。GOATはプラットフォームに依存せず、さまざまなロボットの具現化に適応できます。
GOATは、カテゴリラベル、ターゲット画像、言語の説明を使用して、多様な環境での自律ナビゲーションに長けたモバイルロボットシステムです。GOATは深さの推定と意味的セグメンテーションを利用して、正確なオブジェクトインスタンスの検出とメモリストレージのための3D意味的ボクセルマップを作成します。意味的マップは、空間表現、オブジェクトインスタンス、障害物、探索済みエリアの追跡を容易にします。
GOATは動物や人間のナビゲーションの洞察に触発されたモバイルロボットシステムです。GOATは普遍的なナビゲーションシステムであり、人間の入力に基づいて異なる環境で自律的に操作します。モーダル、ライフロング、プラットフォームに依存しないGOATは、カテゴリラベル、ターゲット画像、言語の説明を使用して目標の指定を行います。この研究では、以前の手法のCLIP特徴マッチングよりもSuperGLUEベースの画像キーポイントマッチングを活用することで、未知のモーダルオブジェクトインスタンスへの到達におけるGOATの性能を評価し、その優越性を示しています。
GOATはイメージと言語の説明に基づいたモーダルナビゲーションのためのモジュラーデザインとインスタンスアウェアな意味的メモリを採用しています。事前計算されたマップなしで評価されるプランは、プラットフォームに依存しない学習能力を持っており、家庭での大規模な実験を通じてその能力を示しています。パスの計算には高速マーチング法を使用し、パスに沿ってウェイポイントに到達するためにポイントナビゲーションコントローラを使用します。
- ウェイト、バイアス、ロスのアンボクシング:ディープラーニングに集中する
- 「ディープラーニングにおける転移学習とは何ですか?」
- セマンティックヒアリング:リアルな環境で特定の音を重点的に集中させたり無視したりしながら、空間認識を維持するための機械学習に基づくヒアラブルデバイスの新しい機能
9つの家での実験的試行において、GOATは83%の成功率を達成し、以前の手法を32%上回りました。探索後の成功率が60%から90%に向上し、その適応性を示しています。GOATはピックアンドプレイスやソーシャルナビゲーションなどの下流タスクもスムーズに処理しました。質的実験では、GOATはボストンダイナミクスのスポットやハローロボットのストレッチロボットに展開されました。家庭でのSpotによる大規模な量的実験では、GOATの優れた性能が3つのベースラインを上回り、インスタンスの一致と効率的なナビゲーションにおいて優れていることが示されました。
優れたモーダルおよびプラットフォームに依存しない設計により、カテゴリラベル、ターゲット画像、言語の説明など、さまざまな手段で目標を指定することができます。モジュラーアーキテクチャとインスタンスアウェアな意味的メモリにより、同じカテゴリのインスタンスを効果的に識別することができます。事前計算されたマップなしでの大規模な実験で評価され、GOATは柔軟性を示し、ピックアンドプレイスやソーシャルナビゲーションなどのタスクに対応します。
GOATの将来の軌道は、さまざまな環境やシナリオでのパフォーマンスを総合的に評価し、その汎用性と堅牢性を測定する包括的な探求を含みます。調査では、調査中の課題に対処するために一致閾値の向上を目指します。目標カテゴリに基づいてインスタンスのサブサンプリングをさらに探求し、パフォーマンスの向上を図ります。GOATの進行中の開発は、グローバルおよびローカルポリシーの改善と、より効率的なナビゲーションのための追加の技術の統合を検討します。広範な現実世界での評価は、異なるロボットやタスクを含めて、GOATの汎用性を検証します。さらなる探求により、GOATの適用範囲をナビゲーション以外の領域、例えば物体認識、操作、相互作用にも広げることが可能です。
We will continue to update VoAGI; if you have any questions or suggestions, please contact us!
Was this article helpful?
93 out of 132 found this helpful
Related articles
- MetaがEmuビデオとEmu編集を発表:テキストからビデオ生成と精密画像編集の先駆的な進化
- 「ターシャーに会ってください:GPT4のようなマルチモーダルLLMとのウェブインタラクションを可能にするオープンソースのPythonライブラリ」
- このAI論文は、高度な潜在的一致モデルとLoRA蒸留によってテキストから画像を生成するタスクを革新するLCM-LoRAを紹介しています
- パロアルトネットワークスは、Cortex XSIAM 2.0プラットフォームを導入します:ユニークなBring-Your-Own-Machine-Learning(BYOML)フレームワークを特徴としています
- 「JARVIS-1に会おう:メモリ拡張型マルチモーダル言語モデルを持つオープンワールドマルチタスクエージェント」
- ラストマイルAIは、AiConfigをリリースしました:オープンソースの構成駆動型、ソースコントロールに対応したAIアプリケーション開発フレームワーク
- LangChain、Amazon SageMaker JumpStart、およびMongoDB Atlasの意味検索を利用した検索増強生成