Learn more about Search Results OPT - Page 34

NVIDIAとUTオースティンの研究者がMimicGenを紹介:ロボティクスのための自律的なデータ生成システム

様々な操作動作をロボットに学習させるために、人間のデモンストレーションを模倣学習することが可能になりました。人間のオペレータは、さまざまな制御インターフェースを介してロボットアームをテレオペレートし、ロボットが異なる操作タスクを実行する様々なデモンストレーションを生成し、そのデータを使用してロボットにこれらのタスクを独立して実行させるように学習させる方法が一般的です。最近の取り組みでは、より多くのデータをより多くの人間オペレータの大規模なグループから、より広範な機能領域で収集することで、このパラダイムを拡大しようとする試みが行われています。これらの研究では、大規模で多様なデータセット上の模倣学習が印象的な性能を示し、ロボットが新しいオブジェクトや未知のタスクに対して汎化できることを示しています。 これは、幅広く優れたロボットを作成するための重要な第一歩であることを意味しています。しかし、これは高価で時間のかかる人間の作業によってのみ可能な達成です。例えば、コーラの缶を一つのビンから別のビンに移動させるエージェントのケーススタディを見てみましょう。この単純な作業においても、200のデモが必要で、成功率は73.3%でした。さらに、最近の試みでは、様々なシーンやアイテムの設定に拡大するために、数万のデモが必要であることが明らかになりました。例えば、20,000の軌跡データを使用して、オブジェクトや目標のわずかな変化に対する課題を一般化できることが示されています。 図1:研究者たちは、既存のデモを新しいコンテキストで有用に着想し、大規模で多様なデータセットを生成するデータ生成システムを提供しています。彼らはMimicGenを使用して、様々なアイテム、ロボットギア、シーンの設定に対してデータを提供しています。 約1.5年にわたるデータ収集の取り組みで、NVIDIAとUT Austinの研究者は、複数の人間オペレータ、複数のキッチン、ロボットアームを使用して、キッチン内の物事を再配置、清掃、回復するためのルールを97%の成功率で作成しました。ただし、実世界のキッチンでこのシステムを実装するためには、必要なデータを収集するために何年もかかることがまだわかっていません。彼らは、「このデータはどの程度異なる操作動作から構成されているのか」と尋ねています。これらのデータセットには、さまざまな設定や状況で使用される類似の変更技術が含まれる場合があります。たとえば、カップを掴む場合、カップの配置に関係なく、人間のオペレータは非常に似たようなロボットの軌跡を示すかもしれません。 これらの軌跡をさまざまな状況に適用することで、様々な操作動作を生成するのに役立ちます。しかし、これらの手法の適用範囲は、特定のタスクやアルゴリズムに対する仮定により制約されています。それよりも、彼らは現在の模倣学習プロセスに簡単に組み込むことができ、さまざまな活動のパフォーマンスを向上させることができる普遍的なシステムを作成したいと考えています。この研究では、限られた数の人間の例から自動的に多数のシナリオで巨大なデータセットを生成するユニークなデータ収集手法であるMimicGenを提案しています。彼らの手法は、ヒトのデモンストレーションをオブジェクトにフォーカスしたパーツに分割し、それらを空間上で変形させ、組み合わせ、ロボットにこの新しい経路をたどるように指示して、異なるオブジェクトの姿勢を持つ新たなシナリオで最新のデモンストレーションを収集するものです。単純な手法ですが、この手法は様々なシナリオから大規模なデータセットを生成するのに非常に適していることがわかりました。これらのデータセットは、模倣学習を使用して有能なエージェントの訓練に使用することができます。 彼らの貢献は以下の通りです: • NVIDIAとUT Austinの研究者が、限られた数の人間のデモンストレーションを利用して、新しい状況適応を用いた技術で大規模で多様なデータセットを作成するMimicGenを提案しています。 • 彼らは、MimicGenが高品質のデータを提供できることを示しています。これらのデータは、元のデモには含まれていないさまざまなシーンの設定、オブジェクトのインスタンス、ロボットアームに対して訓練されたスキルのあるエージェントを模倣学習で訓練するのに適しています(図1を参照)。ピック&プレース、挿入、関節オブジェクトとのインターフェースなど、MimicGenが広範で高精度なアクティビティに適しており、異なる操作能力が求められます。200の元の人間のデモで、彼らは2つのシミュレータと実際のロボットアームを使って、18のジョブのために50,000以上の追加のデモを生成しました。 • 彼らの方法は、より多くの人間のデモを集める代替方法と同等のパフォーマンスを発揮します。これは、いつ追加データを人間から要求する必要があるかについて重要な懸念を引き起こします。MimicGenを使用して同じ量の合成データを生成する(例:10人から生成された200のデモと200人のデモ)と、エージェントのパフォーマンスが同等になります。

モデルアーキテクチャのための生成AIに向けて

「Attention is All You Need」というトランスフォーマー革命は、深層学習モデルのアーキテクチャの設計に深い影響を与えましたBERTが登場して間もなく、RoBERTa、ALBERT、DistilBERTが続きました...

「Amazon SageMaker Model Registry、HashiCorp Terraform、GitHub、およびJenkins CI/CDを使用して、マルチ環境設定でのパイプラインの促進を行う」

「機械学習運用(MLOps)プラットフォームを組み立てることは、人工知能(AI)と機械学習(ML)の急速に進化する状況において、データサイエンスの実験と展開のギャップをシームレスに埋めるため、モデルのパフォーマンス、セキュリティ、コンプライアンスの要件を満たす組織にとって必要不可欠です規制とコンプライアンスの要件を満たすためには、[…]」

「Azure OpenAI Studioを使用したNL2SQLシステムのセットアップ方法」

前の記事では、ユーザーのリクエストからSQLコマンドを生成するためのプロンプトのセットアップ方法を学びました今回は、Azure OpenAI Studioを使用して推論エンドポイントを作成する方法について見ていきます

「組織のためのカスタマイズされたコーディングパートナー」

コーディングの仲間としての生成的AIモデルは、主に公開されているソースコードと自然言語テキストで訓練されています大規模なトレーニングコーパスのため、これらのモデルは一般的に使用される機能のためのコードを生成することができますが、これらのモデルはプライベートリポジトリ内のコードや開発時に強制される関連するコーディングスタイルには無知です

潜在一貫性LoRAsによる4つのステップでのSDXL

潜在的一貫性モデル(LCM)は、ステーブルディフュージョン(またはSDXL)を使用してイメージを生成するために必要なステップ数を減らす方法です。オリジナルモデルを別のバージョンに蒸留し、元の25〜50ステップではなく4〜8ステップ(少ない)だけを必要とするようにします。蒸留は、新しいモデルを使用してソースモデルからの出力を再現しようとするトレーニング手順の一種です。蒸留されたモデルは、小さく設計される場合があります(これがDistilBERTや最近リリースされたDistil-Whisperの場合)または、この場合のように実行に必要なステップ数を減らします。これは通常、膨大な量のデータ、忍耐力、およびいくつかのGPUが必要な長時間かかる高コストのプロセスです。 それが今日までの現状でした! 私たちは、Stable DiffusionとSDXLを、まるでLCMプロセスを使用して蒸留されたかのように、速くする新しい方法を発表できることを喜ばしく思います!3090で7秒の代わりに約1秒、Macで10倍速くSDXLモデルを実行する、というのはどうですか?詳細は以下をご覧ください! 目次 メソッドの概要 なぜこれが重要なのか SDXL LCM LoRAsによる高速推論 品質の比較 ガイダンススケールとネガティブプロンプト 品質 vs. ベースのSDXL 他のモデルとのLCM LoRAs フルディフューザーズの統合 ベンチマーク 今日リリースされたLCM LoRAsとモデル ボーナス:通常のSDXL LoRAsとの組み合わせ LCM…

フリートテクノロジーのためのAI駆動エッジインサイトの実装

「エッジインサイトをフリートテクノロジーに導入し、効率と安全性を向上させ、ドライバーとフリートマネージャーにほぼリアルタイムの洞察を提供する方法を学びましょう」

エンタープライズデータの力を活用するための生成AI:Amazon Kendra、LangChain、および大規模言語モデルによる洞察

広範な知識を持つ大規模言語モデル(LLM)は、ほぼあらゆるトピックについて人間らしいテキストを生成することができますしかし、大量のデータセットでの訓練は、専門的なタスクに対しての利用価値を制限します継続的な学習がなければ、これらのモデルは初期の訓練後に現れる新しいデータやトレンドに無関心ですさらに、新しいLLMを訓練するためのコストも[…]

「AWS Inferentia2を使って、あなたのラマ生成時間を短縮しましょう」

Hugging Faceブログの前の投稿で、第2世代のAWS InferentiaアクセラレータであるAWS Inferentia2を紹介し、optimum-neuronを使用して、標準のテキストとビジョンタスクのためにHugging FaceモデルをAWS Inferentia 2インスタンス上で迅速に展開する方法を説明しました。 AWS Neuron SDKとのさらなる統合の一環として、🤗optimum-neuronを使用して、AWS Inferentia2上でテキスト生成のためのLLMモデルを展開することができるようになりました。 デモンストレーションには、Llama 2、ハブで最も人気のあるモデルの一つ、を選択するのが最も適しています。 Inferentia2インスタンスに🤗optimum-neuronをセットアップする おすすめは、Hugging Face Neuron Deep Learning AMI(DLAMI)を使用することです。DLAMIには、必要なライブラリが事前にパッケージ化されており、Optimum Neuron、Neuron Drivers、Transformers、Datasets、およびAccelerateも含まれています。 また、Hugging Face…

Find the right Blockchain Investment for you

Web 3.0 is coming, whether buy Coins, NFTs or just Coding, everyone can participate.

Advertising with us