Learn more about Search Results OpenUSD - Page 2
- You may be interested
- ピンクのローバーが赤い惑星に取り組む、...
- 「機械学習リスク管理のための文化的な能力」
- 「10 個の最高の AI スケジューリングアシ...
- Perceiver AR(パーシーバーAR):汎用、...
- MLモデルの最適化とデバッグにSHAP値を使...
- 「2023年の最高のAIアバタージェネレータ...
- 「最も難しいPandas:ピボットテーブル、...
- Excel vs Tableau – どちらが優れたツール...
- 「機械学習の謎を解く」
- ビジョン-言語モデルへのダイブ
- 韓国の研究者がVITS2を提案:自然さと効率...
- ワビとトロント大学の研究者が、オートラ...
- Falcon AI 新しいオープンソースの大規模...
- 「UBCと本田技研が、敏感なロボット用の革...
- 人間の脳プロジェクトによるマッピングは...
シャッターでカメラがディープフェイクを停止します
「組み込まれたコンテンツの証明書は、写真の信頼性を確認します」
NVIDIAのGPUはAWS上でOmniverse Isaac Simにおいて2倍のシミュレーションの進化を提供し、スマートなロボットの加速を実現します
クラウド上でよりインテリジェントなロボットを開発することが、スピードの倍増をもたらします。 NVIDIA Isaac SimとNVIDIA L40S GPUsがAmazon Web Servicesに導入され、開発者はクラウド上で加速されたロボットアプリケーションを構築および展開することができます。 AI対応ロボット用の拡張可能なシミュレータであるIsaac Simは、NVIDIA Omniverse開発プラットフォーム上に構築され、OpenUSDアプリケーションの構築と接続を可能にします。 AIコンピューティングの強力さとグラフィックスおよびメディアの高速化を組み合わせると、L40S GPUは次世代のデータセンターワークロードのパワーになります。 Ada Lovelaceアーキテクチャに基づいたL40Sは、過去の世代と比較してOmniverseに対して最大3.8倍の性能向上をもたらし、エンジニアリングおよびロボティクスチームの性能を向上させます。 加速による世代間の飛躍により、Isaac Simを使用した幅広いロボットシミュレーションタスクにおいて、L40S GPUはA40 GPUと比較して2倍の高速パフォーマンスを実現します。 L40S GPUは、言語モデルの微調整から画像へのテキスト変換やチャットアプリケーションへのリアルタイム推論など、生成的AIのワークロードでも活用することができます。 NVIDIA L40Sの新しいAmazon Machine…
「NVIDIAスタジオ」で美しく写実的なフードレンダリングを作り出す3Dアーティストが今週登場しました
エディターの注釈:この投稿は、私たちの週間In the NVIDIA Studioシリーズの一部であり、注目のアーティストを称え、クリエイティブなヒントやトリックを提供し、NVIDIA Studioテクノロジーがクリエイティブなワークフローの向上にどのように役立つかをデモンストレーションします。 感謝の季節です:人々や小さな瞬間に感謝する時間です。それらが私たちの人生を特別なものにするのです。 今週の注目のCG Realism YouTuberであるRavissen Carpenenさんは、食卓に見事なほどリアルな3Dフードの映像を提供しています。 彼の美味しそうなタイムラプス映像は、彼のYouTubeチャンネルで視聴できます。ブライトな音楽とスタイリッシュさを添えて楽しんでください。 Carpenenさんは、食べ物テーマのStudio Standoutビデオコンテストへの数多くの貢献者の一人であり、Roger Roqueさん(@rogerroqueid)、Nicole Morenaさん(@nicky.blender)、Heloise Cartさん(@isoheell)および Kris Theroinさん(@kristheorin)と一緒に作品を提供しました。 最新のアップデートでは、OBS Studioを使用するライブストリーマーは、HDR10キャプチャサポート、WHIPおよびWebRTC出力などの機能を備えた最新バージョンをダウンロードできます。詳細はこちらをご覧ください。 All About That Baste…
広州からロサンゼルスまで、自動車メーカーはAI技術を搭載した車両で驚きと感動を与えています
車好きには朗報です:現在から来週まで開催される2つの著名な自動車ショーが、AIによってパワードされた次世代の自動車デザインの展示で参加者を喜ばせています。 世界中の何十万人もの自動車愛好家が、花の都として知られる中国の広州を訪れることが予想されます。その自動車ショーは、11月26日(日曜日)まで開催されます。このイベントでは、電気自動車(EV)や自動運転の新しい発展が紹介され、1100台の車両が展示されます。 そして世界中で、天使の都であるロサンゼルスでは、今回のショーが史上最多の参加者数に達することが予想されています。11月26日まで開催されるこの展示会では、私設のコレクションからのクラシックでエキゾチックな車両のほか、最新のEVに試乗できる一般公開テストトラックも備えています。 オートグアンジョウ Human Horizons、NEO、ZEEKR 最も期待されているのは、9月に発売された新しいフルエレクトリック車のEmeya Hyper-GTを披露するLotusです。この見事な高級車はスポーツカーの機動性を備え、デュアルのNVIDIA DRIVE Orinプロセッサによってパワードされた印象的な一連のインテリジェントな機能を実現しています。高性能な処理能力により、ドライバーは安全で確実な運転能力を楽しむことができ、オーバーザエア(OTA)のアップデートを通じて将来の機能もサポートします。 安全性を重視して、Emeyaには最新の34個の周囲センサーが搭載され、多様かつ冗長なセンサーデータ処理をリアルタイムで行います。これにより、運転者はハンドルを握る際により一層の自信を持つことができます。Emeyaはバック側にDRIVE Orinが埋め込まれており、高度な運転支援システム(ADAS)の機能を提供し、自律走行の未来をサポートするヘッドルームも提供します。 Emeya Hyper-GTは、Lotusの革新的なElectric Premium Architecture上に構築されており、同じくNVIDIA DRIVE OrinによってパワードされるEletre Hyper-SUVもサポートしています。 さらに、Lotusはエヴィヤハイパーカー、Eletre Hyper-SUV、最近発売された電動自転車であるタイプ136など、Lotusの電動車全体のラインアップも披露しています。また、エミラというLotusの最後の内燃機関車両も展示されています。 NVIDIA DRIVEエコシステムの他のメンバーも、オートグアンジョウで次世代のEVを特集しています: DENZAは、BYDとメルセデス・ベンツの合弁企業である、N7モデルラインアップのインテリジェントドライビング機能を強調しています。すべてのN7モデルにはNVIDIA…
オムニヴァースへ:オープンUSDの強化によるAutodesk Mayaでの3Dワークフローは、フェレットの物語のようになる
エディター注:この投稿は、オムニバースへの参加の一部であり、アーティスト、開発者、企業が最新のOpenUSDおよびNVIDIAオムニバースを使用してワークフローを変革する方法に焦点を当てています。 3Dアートとデザインにおいて、効率的なワークフローは創造的なビジョンを迅速に実現するために不可欠です。 ユニバーサルシーンディスクリプション、またはOpenUSDは、これらのワークフローを強化するフレームワークであり、3Dの世界内での記述、組成、シミュレーション、コラボレーションを統一かつ拡張可能に提供します。 OpenUSDは、メディアおよびエンターテイメント、建築、エンジニアリング、製品デザイン、製造にわたるAutodeskの製品およびソリューションの中核技術です。 今週のAU 2023カンファレンスで発表された、最新のOpenUSDの更新により、Autodesk Mayaのアーティストや技術関係者はより高い制御と効率でOpenUSDアセットを作成および操作することができるだけでなく、より効率的かつ正確な3Dワークフローを保証することができます。 MayaとOpenUSDでデジタルと現実の世界をつなぎます 多くのクリエイターは、MayaとOpenUSDを使用して自分たちの3Dワークフローを推進しています。 Karol Osinskiは、ユニークで大胆かつエレガントなプロジェクトに取り組む建築およびデザイン会社であるS20Mの3Dアーティストです。建築の視覚化を作成する際の最大の課題は、デジタルの世界を現実の世界と一致させることです。 USDおよびMaya、SideFX Houdini、Epic GamesのUnreal Engineなどのクリエイティブツールを使用して、Osinskiはクライアントのために高品質なビジュアルを作成しながら建築ワークフローを加速しています。 オシンスキーのアッパーイーストサイドの20階テラスからの全景 「OpenUSDは、これまでにない形で異なるツールをつなぐ可能性を提供しています」とオシンスキーは述べています。「USDが初めてのユーザーにとってどれだけアクセスしやすく、デザインを非常に複雑にする機会を開くかが好きです」 「サーワード」ニースタットは、アニメーションと3Dの教育をビデオチュートリアルと業界トレーニングを通じてよりアクセス可能にすることを目指しています。彼のユニークなアニメーションワークフローの最初のステップは、カメラでアニメーションを行うことです。それからMayaでアニメーション作業を始める前に、Blenderを含む他の3DソフトウェアにUSDでエクスポートします。 サーワードのVFXロボットアニメーションの制作 NVIDIAの3DアーティストもMayaとOpenUSDのパワーを体験しています。テクニカルスペシャリストであるLee Fraserは、「フェレットテイルプロジェクト」をリードし、OpenUSDとジェネラティブAIによって可能になるキャラクターの作成とアニメーションのワークフローを紹介しました。 デモを作成するために、Fraserと彼のチームは、Blender、Autodesk Maya、Reallusion Character…
チャレンジを受け入れました:アニメーターのワード・ナイシュタット氏が、今週の「NVIDIA Studio」でロボット革命を驚異的なスピードでリード
編集者注:この投稿は私たちの週間In the NVIDIA Studioシリーズの一環であり、特集されたアーティストを称え、クリエイティブなヒントやトリックを提供し、NVIDIA Studioテクノロジーがクリエイティブなワークフローを向上させる方法を示しています。また、新しいGeForce RTX 40シリーズGPUの機能、技術、リソースについて詳しく紹介し、コンテンツの制作を劇的に加速させる方法についても深く掘り下げています。 キャラクターアニメーターのSir Wade Neistadtは、ビデオチュートリアルや業界のトレーニングを通じて、アニメーションと3D教育をよりアクセスしやすくしようとしています。 このYouTubeクリエーターであるSir Wadeは、また、チャレンジも好きです。最近、電子機器会社のRazerから、新しいRazer Blade 18ラップトップとGeForce RTX 4090グラフィックスを使用してユニークで創造的なものを作成するよう依頼されましたが、Sir Wadeは快く引き受けました。 「クリエイティブなリスクを取ってまだ達成方法を知らないものを作りたいと思ったからです」と、アーティストは語りました。 アイ、ロボット Sir Wadeは、プロジェクトを進める上で最も困難な部分の1つは、要求に応じて創造的である必要があると述べています。Razerのプロジェクトでは、アニメーターは自分自身に2つの質問を投げかけて始めました。「何にインスピレーションを受けるか?」、「何で作業できるか?」 Sir Wadeは、ゲーム、テクノロジー、映画、人々の観察、会話にインスピレーションを見出しています。テクノロジー好きであり、ProRigsライブラリのキャラクターに長い間注目していた彼は、短編アニメーションにロボットを登場させることにしました。 アニメーションのコンセプトを作成する際、Sir…
プロデジーHFをご紹介します:Hugging Faceと直接連携
プロディジーは、Explosionという会社が作成したアノテーションツールです。この会社はspaCyのクリエイターとしてよく知られています。プロディジーは、スクリプトから完全に操作可能な製品であり、その周りには大きなコミュニティが存在しています。この製品には、spaCyとの緊密な連携やアクティブ・ラーニング機能など多くの機能があります。しかし、この製品の主な特徴は、Pythonでプログラム的にカスタマイズ可能であることです。 このカスタマイズ性を促進するために、Explosionはプラグインのリリースを開始しました。これらのプラグインは、ユーザーが独自のアノテーションワークフローに取り組むことを奨励するオープンな方法で、サードパーティのツールと統合されます。しかし、特にこのカスタマイズについては明示的に称賛される価値があります。先週、ExplosionはProdigy-HFを導入しました。これはHugging Faceスタックと直接統合するコードレシピを提供します。これはProdigyサポートフォーラムで多く要望された機能であり、我々はとても興奮しています。 特徴 最初の主な特徴は、このプラグインにより、アノテーションしたデータでHugging Faceモデルをトレーニングして再利用できることです。つまり、名前付きエンティティ認識のために当社のインターフェースでデータをアノテーションしている場合、それに対してBERTモデルを直接ファインチューニングできます。 これがプロディジーNERインターフェースの見た目です。 プラグインをインストールした後、コマンドラインからhf.train.nerレシピを呼び出して、独自のデータ上でトランスフォーマーモデルを直接トレーニングすることができます。 python -m prodigy hf.train.ner fashion-train,eval:fashion-eval path/to/model-out --model "distilbert-base-uncased" これにより、distilbert-base-uncasedモデルがProdigyに保存されたデータセットについてファインチューニングされ、ディスクに保存されます。同様に、このプラグインはテキスト分類用のモデルも非常に似たインターフェースでサポートしています。 python -m prodigy hf.train.textcat fashion-train,eval:fashion-eval path/to/model-out --model…
「Hugging Face の推論エンドポイントを使用して埋め込みモデルを展開する」
Generative AIやChatGPTのようなLLMsの台頭により、様々なタスクの組み込みモデルへの関心と重要性が高まっています。特に検索や自分のデータとのチャットなどのリトリーバル・オーグメント生成のために、埋め込みモデルは役立ちます。埋め込みは、文、画像、単語などを数値ベクトル表現として表現するため、意味的に関連するアイテムをマッピングし、役立つ情報を取得することができます。これにより、質と特定性を向上させるための関連コンテキストをプロンプトに提供することができます。 LLMsと比較して、埋め込みモデルはサイズが小さく、推論が早いです。このため、モデルを変更したり、モデルの微調整を改善した後に埋め込みを再作成する必要があるため、非常に重要です。また、リトリーバルのオーグメントプロセス全体ができるだけ高速であることも重要です。これにより、良いユーザーエクスペリエンスを提供することができます。 このブログ記事では、オープンソースの埋め込みモデルをHugging Face Inference Endpointsに展開する方法と、モデルを展開するのを簡単にするマネージドSaaSソリューションであるText Embedding Inferenceの使用方法を紹介します。さらに、大規模なバッチリクエストの実行方法も説明します。 Hugging Face Inference Endpointsとは何か Text Embedding Inferenceとは何か 埋め込みモデルをインファレンスエンドポイントとして展開する方法 エンドポイントにリクエストを送信し、埋め込みを作成する方法 始める前に、インファレンスエンドポイントについての知識をリフレッシュしましょう。 1. Hugging Face Inference Endpointsとは何ですか?…
ロボット学習の革命:NVIDIAのユーレカが複雑なタスクをこなす
テクノロジーが絶えず進化する世界で、NVIDIAは再びその能力を発揮し、画期的な進歩を遂げましたEureka AIエージェント「この最先端のツールは、あらゆるAIモデルとは異なり、ロボットの領域を変革し、かつて複雑すぎると考えられていた複雑なタスクを習得する能力を提供していますロボットが[…]を行うと想像してみてください」
「ユーレカ!NVIDIAの研究によるロボット学習の新たな進展」
ロボットに複雑なスキルを教えることができるNVIDIA Researchによって開発された新しいAIエージェントは、ロボットの手にペン回しのテクニックを迅速に演じることを学習しました。これは人間と同じくらいのスキルです。 上記のビデオで見られる驚くべき手品は、ユーレカによってほぼ30のタスクを学習させることによって達成されました。ユーレカは報酬アルゴリズムを自律的に書き、ボットをトレーニングします。 ユーレカは、引き出しやキャビネットを開ける、ボールを投げてキャッチする、はさみを使うなどのタスクもロボットに教えました。 今日発表されたユーレカの研究には、論文とこのプロジェクトのAIアルゴリズムが含まれており、開発者はNVIDIA Isaac Gymを使用して実験することができます。これは強化学習研究のための物理シミュレーションリファレンスアプリケーションです。アイザックジムは、オープンUSDフレームワークに基づいた3Dツールやアプリケーションを構築するための開発プラットフォームであるNVIDIA Omniverse上に構築されています。ユーレカ自体は、GPT-4大規模言語モデルによって動作します。 「ここ10年で強化学習は素晴らしい成果を上げてきましたが、報酬設計などの課題はまだ存在します。それは試行錯誤のプロセスです。」と、NVIDIAのAI研究の上級ディレクターであるアニマ・アナンドクマールは語りました。彼女はまた、ユーレカの論文の共著者でもあります。「ユーレカは、困難なタスクを解決するために生成的学習と強化学習の手法を統合する新しいアルゴリズムを開発するための第一歩です。」 AIがロボットをトレーニング 論文によると、ユーレカが生成する報酬プログラムは、ロボットの試行錯誤学習において、専門家によって作成されたものよりも80%以上のタスクで優れたパフォーマンスを発揮しています。これにより、ボットの平均パフォーマンスが50%以上向上しています。 https://blogs.nvidia.com/wp-content/uploads/2023/10/franka_cabinet.mp4 ユーレカによって引き出しを開けるように学習されたロボットアーム。 このAIエージェントは、ロボットに強化学習のためのソフトウェアコードを生成するためにGPT-4 LLMと生成的AIを活用しています。具体的なタスクの促しや事前定義された報酬テンプレートは必要ありません。また、開発者のビジョンにより正確に合わせて報酬を修正するための人間のフィードバックをすぐに組み込むことができます。 Isaac GymのGPUアクセラレーションされたシミュレーションを使用することにより、ユーレカは効率的なトレーニングのために大規模な報酬候補の品質を迅速に評価することができます。 ユーレカは、トレーニング結果からキーとなる統計情報の要約を作成し、LLMに報酬関数生成の改善を指示します。このように、AI自体が自己改善しています。ユーレカは、四足歩行、二足歩行、クアッドローター、器用な手、共同作業者のアームなど、あらゆる種類のロボットにあらゆる種類のタスクを実行することを教えてきました。 この研究論文では、20のユーレカによるトレーニングされたタスクについて、ロボットの手が幅広い複雑な操作スキルを示す必要があるオープンソースの手先器用さベンチマークに基づく詳細な評価が提供されています。 NVIDIA Omniverseを使用して生成された視覚化で、9つのIsaac Gym環境の結果が紹介されています。 https://blogs.nvidia.com/wp-content/uploads/2023/10/humanoid.mp4 ユーレカを通じて走りの足技を学ぶヒューマノイドロボット。…
Find the right Blockchain Investment for you
Web 3.0 is coming, whether buy Coins, NFTs or just Coding, everyone can participate.