Learn more about Search Results 同期 - Page 9

ゲーミングでのファウンデーションモデルの使い方はどのようなものですか?

AI技術は、メディアやエンターテイメント、自動車、カスタマーサービスなど、様々な業界において大きな影響を与えています。ゲーム開発者にとって、これらの進歩は、よりリアルで没入感のあるゲーム体験を創造するための道を開いています。 感情を伝えるような生き生きとしたキャラクターや、単純なテキストを魅力的なイメージに変換するために、基盤モデルは、開発者の作業を加速させると同時に総合コストを削減する上で不可欠な存在となっています。これらのパワフルなAIモデルは、デザイナーやゲーム開発者に高品質なゲーム体験の構築を可能にしました。 基盤モデルとは何ですか? 基盤モデルは、膨大なデータを学習し、さまざまなタスクに対応するために適応されたニューラルネットワークです。テキスト、画像、音声の生成など、さまざまな一般的なタスクを可能にします。基盤モデルの人気と使用は、過去1年間で急速に増加しており、現在数百のモデルが利用可能となっています。 例えば、GPT-4は、コンテキストや過去の会話に基づいて人間らしいテキストを生成することができる、OpenAIが開発した大規模なマルチモーダルモデルです。また、DALL-E 3は、自然言語で書かれた説明からリアルな画像やアートワークを作成することができます。 NVIDIA NeMoやNVIDIA Picassoのようなパワフルな基盤モデルを使用することで、企業や開発者は既存のワークフローにAIを組み込むことが容易になります。たとえば、NVIDIA NeMoフレームワークを使用することで、組織はスケールできる生成AIモデルを迅速にトレーニング、カスタマイズ、展開することができます。また、NVIDIA Picassoを使用することで、チームは独自の企業データで事前トレーニングされたEdifyモデルを微調整し、生成AI画像、動画、3Dアセット、テクスチャ素材、360 HDRiのカスタム製品やサービスを構築することができます。 基盤モデルはどのように構築されていますか? 基盤モデルは、複数のタスクを実行できるAIシステムのベースとして使用することができます。企業は、膨大な未ラベル化データを使用して独自の基盤モデルを簡単かつ迅速に作成することができます。 データセットは可能な限り大きく多様である必要があります。データ量が少なすぎるか、品質が低い場合、生成された出力には不正確さ(幻覚とも呼ばれる)や細かいディテールの欠落が生じる可能性があります。 次に、データセットを準備する必要があります。これには、データのクリーニング、エラーの削除、モデルが理解できる形式に整形する作業が含まれます。データセットの準備時には、偏見が普遍的な問題となるため、これらの不一致や不正確さを測定し、削減、解決することが重要です。 基盤モデルのトレーニングには時間がかかる場合があります。モデルのサイズや必要なデータ量に加えて、NVIDIA A100やH100 Tensor Core GPUなどのハードウェア、およびNVIDIA DGX SuperPODなどの高性能データシステムを使用すると、トレーニングを加速することができます。例えば、ChatGPT-3は、約34日間で1,000以上のNVIDIA A100…

リーンで、意味ありげなAI夢マシン:DejaVuは知能を失わずにAIとのおしゃべりコストを削減しる

大規模言語モデルのトレーニングには、強力なGPUやTPU、AIアクセラレータなどの専用ハードウェアなどの高度な計算リソースが必要です。これらのリソースは獲得や維持に高額な費用がかかることがあります。大規模言語モデルをトレーニングするために必要な膨大な量のデータを収集し準備することは、費用と時間がかかる作業です。モデルの性能には、高品質で多様かつ代表的なデータセットが必要です。 大規模言語モデルのトレーニングには、モデルのサイズと複雑さによって数週間、あるいは数ヶ月かかることがあります。スパース性は、この費用を削減する自然なアプローチです。既存の手法では、高額な再トレーニングが必要な場合や、現代のハードウェアでは壁時計時間の高速化が得られない場合があります。研究者たちは、入力に応じた一連のアテンションヘッドとMLPパラメータの新しいスパース性を提案しました。これにより、モデルがより長い時間にわたって同じ出力を生成することが可能です。 彼らは、文脈的なスパース性が存在すると仮定し、それが正確に予測されると、LLM(Large Language Model)の推論を妨げることなく、壁時計時間で高速化することができるという仮説を立てました。彼らは、低コストのアルゴリズムを使用して、各層への入力に応じて文脈的なスパース性をリアルタイムに予測するシステム「DEJAVU」を提案しています。 文脈的なスパース性が存在する場合でも、特定の入力に対するスパース性を事前に予測することは困難です。そのような文脈的なスパース性が存在するかどうかを検証するのは容易ではなく、単純な検証は費用がかかる場合があります。また、エンドツーエンドの壁時計時間の高速化を達成することも困難かもしれません。研究チームは、簡単なアプローチでそのようなスパース性の存在を検証しました。文脈的なスパース性は、個々の入力トークンだけでなく、その相互作用にも依存しています。十分な文脈情報を持つトークン埋め込みを使用することで、正確にスパース性を予測することができます。 MLPブロックの文脈的なスパース性は、アクティベーションを計算した後に識別することができます。ただし、これによって文脈的なスパース性の存在が示されるだけで、効率の面での利点はありません。文脈的なスパース性をエンドツーエンドで効率的に活用するには、高速で正確な予測が必要です。 DEJAVUは、予測コストを回避するために先読み予測子を使用します。ブロックkのアテンション層への入力が与えられた場合、彼らは非同期にブロックkのMLPに対して文脈的なスパース性を予測し、その情報をブロックkのMLPに提供します。次の層のアテンションヘッドでのスパース性も予測します。また、彼らは、文脈的なスパース性を軽量な学習ベースのアルゴリズムで正確に予測できると主張しています。 研究者は、DEJAVUが最先端のFasterTransformerに比べてトークン生成のレイテンシを2倍以上削減し、Hugging Faceに比べて6倍以上の削減を達成し、正確さの低下はないことを発見しました。MLPスパース予測子は、ゼロショットタスクと言語モデリングの両方で正確さの低下はありません。MLPスパース予測子のトレーニングでは、高い検証精度が得られることが観察されました。

「ブンデスリーガのマッチファクト ショットスピード – ブンデスリーガで一番シュートが速いのは誰か?」

サッカーショットには、観客、選手、さらには解説者までもが一瞬あっという間に感嘆の念に包まれるような魔法のようなものがありますあなたがバンデスリーガのスタジアム全体をエネルギーで震わせた衝撃の強さを思い出してみてくださいそれは一体何が私たちの想像力をそんなに強烈に捉えるのでしょうか?それについて […]

「Kubernetesに対応した無限スケーラブルストレージ」

時には、ただ機能するストレージが必要ですCephを使用して、Kubernetesクラスタで無限にスケーリング可能な複製ストレージを取得する方法を学びましょう!確実に動作することを確認するために、ノードを破壊しましょう💥

大規模言語モデルを使用したアプリを作成するためのデータパイプラインの構築

製品レベルのLLMアプリを作成するためには、堅牢なデータパイプラインが必要ですこの記事では、Gen AIデータパイプラインの構築の異なるステージと、これらのステージに含まれる内容について説明しています

「ジュニアデータサイエンティストのための3つのキャリアの重要な決断」

データサイエンスはまだ比較的新しい分野ですので、10年後の自分のキャリアがどのようになるのかわかりにくいかもしれません『Kaggle』の調査によれば、データサイエンスで働いている人々は...

「HITL-TAMPを紹介します:自動計画と人間の制御のハイブリッド戦略を通じて、ロボットに複雑な操作スキルを教えるための新しいAIアプローチ」

ロボットに複雑な操作スキルを教えるための人間のデモンストレーションの観察は、有望な結果を示しています。操作のデモを提供することは時間がかかり、労力もかかるため、これを現実世界の長期運用に拡大することは困難です。ただし、タスクのすべての要素が同じではありません。 NVIDIAとジョージア工科大学による新しい研究では、様々な将来の結果が可能な問題を解決するのに特に効果的なTask and Motion Planning(TAMP)システムの強化方法を探索しています。有限の基本的な能力のすべての組み合わせを探索することで、TAMPアプローチはさまざまな多段階の操作タスクの行動を計画することができます。各スキルは従来から手作業で設計されていますが、バネで固定された蓋を閉める、または穴に棒を挿入するなどのタスクは非常に効率的にモデル化するのが非常に難しい例です。代わりに、チームは人間の遠隔操作とクローズドループ学習を利用して、必要な能力のみを組み込み、残りは自動化に任せることでタスクを実現します。これらの機能は、データ収集時の人間の遠隔操作および収集されたデータから学習されたポリシーに依存しています。TAMPシステムと人間の遠隔操作を統合する際には、重要な技術的な障壁があり、それらの間でスムーズな引継ぎが確保される必要があります。 これらの障壁を克服するために、彼らはHuman-in-the-Loop Task and Motion Planning(HITL-TAMP)を提供しています。これは、TAMPと遠隔操作を補完的に統合するシステムです。デバイスによって使用されるTAMPゲート制御メカニズムにより、TAMPシステムと人間の遠隔操作の切り替えによるデモンストレーションの収集が可能です。重要なことは、TAMPシステムが人間オペレーターに対して作業計画の特定のポイントでのみ参加するよう促すことで、一度に1つのデモンストレーションセッションを非同期に管理することができる点です。この技術は、データ収集のスループットを劇的に向上させます。これにより、必要なときにのみ人間のデモンストレーションを要求することで、長期運用で接触の頻度が高い作業における巨大なデータセットの収集に必要な労力を削減します。TAMPゲートストラテジーを人間のデータを使用してトレーニングするために、彼らは模倣学習フレームワークとデータ収集システムを統合しています。タスクをロボットに教えるために必要なデータ、タスクを教えるのにかかる時間、教えられたポリシーの成功率について、彼らはこれが完全なタスクの人間のデモンストレーションの収集よりも高いパフォーマンスをもたらすことを示しています。 研究者たちは15人の参加者を対象にHITL-TAMPと通常の遠隔操作システムを比較しました。彼らの方法では、ユーザーは同時に3倍以上のデモンストレーションを獲得することができました。非専門の遠隔操作からのわずか10分のデータで、75%以上の成功率を持つエージェントをトレーニングすることができました。HITL-TAMPは、現実世界のコーヒーの淹れ方など、12の接触の多い長期タスクにまたがる2.1Kのデモンストレーションを収集することで、ほぼ完璧なエージェントを頻繁に生成します。 タスクの全体での人間のデモンストレーションの収集とポリシーの学習効率は、TAMPと遠隔操作の組み合わせによってHITL-TAMPで大幅に向上しています。

「コルーチンの実行のマスタリング:UnityにおけるYield、Flow、そして実用例」となります

この包括的なガイドを通じて、Unityでの高度なコルーチンの使用方法を探求しましょうyieldingのテクニック、ゲームループの統合、実践的な応用について深く掘り下げましょう

ショッピファイの製品推奨アプリに生成AIを導入する

ショッピファイの製品推薦アプリケーションであるSearch and DiscoveryにジェネレーティブAIがどのように実装されたかについて探求してみましょう

「NVIDIA OmniverseでDLSS 3.5およびレイ再構築が利用可能になりました」

高い期待を集めていたNVIDIA DLSS 3.5のアップデートは、NVIDIA OmniverseにRay Reconstructionを含めたバージョンが利用可能になりました。 RTX Video Super Resolution(VSR)は明日のNVIDIA Studio Driverリリースで利用可能になります。このリリースは、OmniverseでのDLSS 3.5のアップデートをサポートし、RTX GPUのオーナーには無料です。バージョン1.5のアップデートでは、全体的なグラフィカルな忠実度の向上、ネイティブのビデオへのアップスケーリング、およびGeForce RTX 20シリーズのGPUのサポートが提供されます。 NVIDIAのクリエイティブディレクターでビジュアルエフェクトプロデューサーのサブール・アミラゾディ氏が、NVIDIA Studioでハロウィンテーマのプロジェクションマッピングショーを披露します。彼の家には、恐ろしい歌、恐ろしいアニメーション、怖い小道具などが登場します。 Get ready for some Halloween magic! 🎃…

Find the right Blockchain Investment for you

Web 3.0 is coming, whether buy Coins, NFTs or just Coding, everyone can participate.

Advertising with us