Learn more about Search Results Adobe

「MITとAdobeの研究者が、一つのステップの画像生成器に拡散モデルを変換するための人工知能手法、Distribution Matching Distillation (DMD 分布マッチング蒸留) を紹介」

一定のトレーニングプロセスを経て、拡散モデルは画像生成を革新し、従来にない多様性とリアリズムのレベルを達成しました。しかし、GANやVAEとは異なり、そのサンプリングはガウス性ノイズのサンプルのノイズを徐々に減少させ、プログレッシブなデノイジングにより複雑な画像を生成する努力の連続的なプロセスです。これにより、生成パイプラインをクリエイティブなツールとして利用する際の相互作用の量が制限され、通常は多くの高価なニューラルネットワーク評価を必要とします。以前の手法は、初めの多段階の拡散サンプリングで見つかったノイズ→画像のマッピングを単回の学習ネットワークに濃縮し、サンプリングプロセスを高速化します。こうした高次元で複雑なマッピングをフィットすることは、確かに困難な作業です。 改良の余地の一つは、学習モデル全体のデノイジング経路を実行し、単一の損失を計算するための学習モデルのサンプル距離を徐々に拡大していく際に発生する高額な費用です。現在の手法は、元の多段階拡散モデルのデノイジングサイクルを繰り返さずに、学生のサンプル距離を徐々に拡張することでこれを軽減しています。ただし、元の多段階拡散モデルの方が蒸留版よりも優れています。逆に、研究チームは、ノイズと拡散生成された画像の対応を必要とせずに、学生の生成物が元の拡散モデルと同じであることを強調しています。一般的には、彼らの目標の理論的背景は、他の分布マッチング生成モデル(GMMNやGANなど)と似ています。 ただし、リアルなグラフィックを生成する能力は非常に優れているにもかかわらず、一般的なテキストから画像へのモデルのスケーリングは困難であることがわかっています。研究チームは、この問題を解決するために、以前にテキストから画像に広範にトレーニングされた拡散モデルを起点にしています。研究チームは、トレーニングされた拡散モデルを特に微調整することで、データ分布とそれによって生成される架空の分布を学びます。研究チームは、デノイズされた拡散出力を画像を「よりリアル」または(拡散モデルが偽の画像でトレーニングされている場合)「よりフェイク」にするための勾配方向として解釈することができます。なぜなら、拡散モデルは拡散分布のスコア関数を近似することで知られているからです。 最終的に、ジェネレータの勾配更新ルールは、この2つの差として作成され、人工の画像をよりリアリスティックに、よりフェイクから遠ざけます。また、事前学習された拡散モデルによるリアルと偽の分布のモデリングを使用して3Dオブジェクトのテスト時最適化を達成することも可能です。以前の研究では、Variational Score Distillationという手法を使用してこれを実証しています。研究チームは、同様の手法を使用して完全な生成モデルをトレーニングできることも発見しています。さらに、研究チームは、分布マッチング損失の存在下で、多段階拡散サンプリングの結果のわずかな数が事前計算され、1ステップの生成に関するシンプルな回帰損失を実装することで効果的な正則化子として機能することを見つけています。 MITとAdobe Researchの研究者は、Distribution Matching Distillation(DMD)と呼ばれるプロセスを提供しています。これは、画像の品質にほとんど影響を与えずに拡散モデルを1ステップの画像生成器に変換するプロセスです。彼らのアプローチは、VSD、GAN、およびpix2pixからのインスピレーションや洞察を受けています。この研究チームは、(1) 拡散モデルを使用してリアルな分布とフェイクの分布をモデル化し、(2) 多段階拡散出力とシンプルな回帰損失を一致させることで、高精度の1ステップ生成モデルをトレーニングすることができることを示しています。彼らのDistribution Matching Distillation(DMD)技術でトレーニングされたモデルをMS COCO 512×512のゼロショットテキストから画像の生成、CIFAR-10およびImageNet 64×64の画像生成など、さまざまなタスクで評価しています。彼らの1ステップジェネレータは、一括生成モデル、進行的ディスティレーション、修正フローなどの全てのベンチマークで、既知の少数ステップ拡散手法よりも優れたパフォーマンスを発揮します。 DMDはImageNetでのFIDが2.62であり、Consistency Modelを2.4倍上回ります。DMDはStable Diffusionと同じデノイザーアーキテクチャを使用して、MS-COCO 2014-30kで11.49の競争力のあるFIDを達成します。彼らの定量的および定性的な分析は、研究チームのモデルで生成される画像がより高度な品質であり、より高価なStable Diffusionモデルで生成されるものと比較できることを示しています。特に、このレベルの視覚品質を保ちながら、ニューラルネットワークの評価数を100倍減少させることができるという点で、その効率性によって、DMDはFP16推論を使用することで秒間20フレームの速度で512×512の画像を生成できるようになり、多くのインタラクティブなアプリケーションの可能性を開拓しています。

3Dアーティストのヌルハン・イスマイルは、Adobe After EffectsとBlenderを使用して、イソメトリックな革新を「NVIDIA Studio」にもたらす

編集者の注:この投稿は、弊社の週刊In the NVIDIA Studioシリーズの一部で、注目されたアーティストを称え、クリエイティブなヒントやトリックを提供し、NVIDIA Studioテクノロジーがクリエイティブなワークフローを向上させる方法を示しています。 今週の才能あるIn the NVIDIA Studioアーティスト、Nourhan Ismailさんは、文字通りのNVIDIAスタジオを作りました。 彼女の作品「Creator by Day, Gamer by Night」は、イスマイールさんが知られる等角アートスタイルと印象的なグラフィカルな忠実さで作られており、鮮やかな色彩と遊び心のあるディテールに満ちています。また、彼女の「仕事を一生懸命に、遊びを一生懸命に」という3Dアーティスト、インテリアデザイナー、ゲームレベルデザイナーとしての考えを捉えています。 同じアートスタイルは、IsmailさんがリードするNVIDIA Studio Sessions YouTubeミニシリーズでも紹介されており、入稿から最終レンダリングまでの手順についてのステップバイステップのチュートリアルを提供しています。 facial Animations Made Easier…

AdobeのAI研究が提案する「ラージリコンストラクションモデル(LRM)」は、単一の入力画像からオブジェクトの3Dモデルを5秒以内に予測するというものです

多くの研究者たちは、任意の2D画像を瞬時に3Dモデルに変換できる世界を想像してきました。この分野の研究は、これらの長年の目標を達成するための一般的かつ効率的な方法を見つけるという願望に基づいており、産業デザイン、アニメーション、ゲーム、拡張現実/仮想現実などのさまざまな応用が考えられています。 初期の学習ベースの手法は、一目での3Dジオメトリの曖昧さにより、一部のカテゴリにおいてはうまく機能します。最近の研究は、DALL-EやStable Diffusionなどの画像生成の最新の進展に触発されて、2D拡散モデルの驚くべき一般化の可能性を活用するために、マルチビューの監督学習を実現することを目指しています。しかし、これらの手法の多くは慎重なパラメータ調整と正則化を必要とし、最初に使用された事前学習済みの2D生成モデルによって制約されます。 Adobe Researchとオーストラリア国立大学の研究者たちは、Large Reconstruction Model(LRM)を使用して単一の画像を3Dに変換することが可能となりました。提案されたモデルは、単一の画像からのデータ駆動型3Dオブジェクト表現学習のための大規模なトランスフォーマベースのエンコーダ・デコーダアーキテクチャを使用しています。画像がシステムに入力されると、NeRFの三面図の表現が出力されます。具体的には、LRMは、事前学習済みのビジュアルトランスフォーマDINOを画像エンコーダとして使用して画像特徴を生成し、その後、画像から三面図へのトランスフォーマデコーダを学習して、2D画像の特徴を3D三面図にattention的に投影し、空間構造化された三面図トークン間の関係を自己注意的にモデリングします。デコーダからの出力トークンは、最終的な三面図特徴マップにreshapeされてupsampledされます。その後、追加の共有マルチレイヤパーセプトロン(MLP)を使用して、各ポイントの三面図的特徴をデコードし、その色と密度を取得し、ボリュームレンダリングを実行することで、任意の視点から画像を生成することができます。 LRMは、設計がよく考えられているため高度にスケーラブルで効率的です。Triplane NeRFは、ボリュームやポイントクラウドのような他の表現に比べて計算的に効率的であり、シェイプEのトークン化したNeRFのモデルの重みと比較して、画像への近さが優れています。さらに、LRMは、新しいビューでのレンダリングされた画像とグラウンドトゥルー画像との差を最小化するだけで訓練されるため、過剰な3D感知的な正則化や繊細なハイパーパラメータ調整は必要ありません。そのため、モデルは訓練時に非常に効率的で、さまざまなマルチビュー画像データセットに適応可能です。 LRMは、500億個以上の学習可能なパラメータと、さまざまなカテゴリからの約100万個の3Dシェイプとビデオで構成されるトレーニングデータを持つ、最初の大規模な3D再構築モデルです。これは、より最近の手法が比較的浅いネットワークと小さなデータセットを使用しているのに対して、サイズが大幅に増加しています。実験結果は、LRMが実世界および生成モデルの写真から高品質な3D形状を再構築できることを示しています。また、LRMはダウンサイジングに非常に便利なツールです。 チームは、将来の研究において次の領域に焦点を当てる予定です: 最もシンプルなトランスフォーマベースの設計を使用して、モデルのサイズとトレーニングデータを増やす。 3Dのマルチモーダル生成モデルに拡張する。 3Dデザイナーが行っていた一部の作業は、LRMのような画像から3D再構成モデルの助けを借りることで自動化される可能性があります。また、これらの技術は創造的な分野における成長とアクセシビリティを高める可能性があることにも注意することが重要です。

「最大AIパフォーマンス:最新のNVIDIA GPUによって高速化されたAdobeの最新アップデートは、何百万ものクリエイターのワークフローを改善します」

生成AIは、多くの産業で創造的な人々が思い描いたアイデアを類まれな速さで実現するのに役立っています。 この技術は、Adobe MAXで展示されます。10月12日(木曜日)まで、対面とバーチャルで行われます。Adobe MAXをご覧ください。 Adobeは、Adobe Fireflyのリリースにより、創作者たちの手に生成AIの力を与えています。NVIDIAのGPUを使用して、Adobeは芸術家やその他の人々が生成AIを加速させるための新たな機会をもたらし、数百万人のユーザー向けに生成AIの拡張を解放しています。Fireflyは現在、スタンドアロンのアプリとして利用可能であり、他のAdobeアプリとも統合されています。 Adobe Premiere Pro、Lightroom、After Effects、Substance 3Dの最新のアプリのアップデートにより、クリエイターに新たなAI機能がもたらされました。さらに、GeForce RTXおよびNVIDIA RTXのGPUは、これらのアプリやAIエフェクトを高速化し、膨大な時間の節約をもたらします。 ビデオエディターは、最適化された話し声の品質を向上させるAIのEnhance Speech(ベータ版)機能を活用したり、RTX GPUでのPremiere ProでのARRIRAWカメラのオリジナルデジタルフィルムクリップのGPUアクセラレーションデコードで、Apple MacBook Pro 16 M2 Maxと比較して最大60%高速化される点を活用したりすることができます。さらに、After Effectsで利用できる次世代Roto Brush(バージョン3.0)機能により、改善されたロトスコーピングの品質も活用できます。…

「Amazon Kendraを使用して、Adobe Experience Managerのコンテンツを賢く検索する」

この投稿では、Amazon Kendra AEMコネクタを設定してコンテンツをインデックス化し、AEMのアセットとページを検索する方法を紹介しますコネクタはまた、各ドキュメントのアクセス制御リスト(ACL)情報も取り込みますACL情報は、ユーザーがアクセス権を持っているものに絞り込まれた検索結果を表示するために使用されます

Adobe Illustratorの「Generative Recolor」AIであなたの画像を変換しましょう

デザインソフトウェアの有名企業Adobeは、デザイナーとマーケターを強化する発表をしました。Adobe Illustratorの最先端のAI機能「Generative Recolor」を導入し、テキストプロンプトの助けを借りてグラフィックの色、テーマ、フォントを変換できるようになりました。この開発は、Adobeが旗艦デザイン製品に生成AI機能を統合することにコミットしたことを示しており、創造プロセスを革新しています。 詳しくはこちら:DataHack Summit 2023で開催されるディフュージョンモデルのワークショップで、Generative AIの限りない世界を体験しましょう。 Generative Recolorでデザイン効率を向上させる Generative Recolorを使用することで、デザイナーはAdobe Illustrator上のデザインの色やフォントを簡単に更新でき、貴重な時間を節約できます。 「平和的なパステル」「ネオンポップ」「秋の紅葉」などの説明的なプロンプトを利用すると、ユーザーは画像のユニークなバリエーションを生成できます。また、季節的なマーケティングや広告キャンペーンに合わせたカラーパレットを作成するためにも使用できます。AdobeのFirefly AIの力を借りて、Generative Recolorはテキストプロンプトに基づいてシーンやテーマのレンダリングを生成します。生成された画像からカラーパレットを抽出し、ユーザーのグラフィックにシームレスに適用するため、望むムードやテーマに応じて再色付けされます。 また読む:Meta、画像用の「人工知能に似た」デザイナーAIを発表 Generative AI機能の拡大 Adobeの生成AIへの進出は、3月に導入されて以来、ユーザーがAdobeのテキストから画像を生成するAIツールを使用して、約2億枚の画像を作成しているという驚くべき成功を収めています。消費者からの関心の高まりに応えて、Adobeはエンタープライズ向けに生成AI機能を提供する計画を明らかにし、デザインの世界をさらに革新します。ただし、アーティストやAdobe株式貢献者からは、明示的な許可なしに彼らの作品をAdobeの生成AIモデルのトレーニングに使用すること、およびパブリックドメイン画像の利用に関する透明性の欠如に対する懸念が提起されています。 イノベーションの促進とコンプライアンスの確保 Adobeは、これらの問題に対処するために、法的コンプライアンスと透明性への取り組みを強調しています。Adobeの国内AIモデルであるFireflyは、Creative Commons、Wikimedia、Flickr Commons、Adobe Stockからのパブリックドメイン画像でトレーニングされていますが、同社はエンタープライズ顧客が著作権侵害のクレームに関連する法的費用を補償することを保証しています。さらに、Adobeは、Fireflyの画像生成品質、解像度、詳細を向上させるために数百人の研究者を投資し、ビデオや3D生成モデルも開発しており、Adobe…

「チャットボットの台頭:バカな機械からクリエイティブな共同作業者へ」

2023年は私たちにとって画期的な年となりましたロボットとのコミュニケーション、創造性、チームワーク、さらには操作術をマスターしたことで、私たちの能力が向上しました

「デジタル時代のユーザーセントリックデザイン:ウェブデザインとUI/UX体験に影響を与えるトレンド」

ユーザー体験に重点を置くウェブデザインの最新トレンドを紹介しましょうダークモードの普及から3D要素の統合まで、魅力的な要素を解説します

「2023年のAI タイムライン」

はじめに 人工知能(AI)は、技術的な進歩が人間のつながりの本質と共鳴する形で私たちの日常生活と交差する魅力的な領域です。今年は、単なるアルゴリズムを超えてAIを身近に感じる革新の物語が展開されました。2023年のAIの素晴らしいハイライトを探索しながら、この旅に参加しましょう。 AI 2023年のハイライト 2023年のAIの世界で行われた最大の発見、進歩、および世界的な変革の一部を紹介します。これらの進歩がどのように、技術が私たちの人間の体験にシームレスに統合される未来を形作っているのか、探求してみましょう。 2023年1月のAIハイライト この年は、AIが医療と健康の分野で重要な進展を示しました。MITの研究者はマサチューセッツ総合病院と連携し、CTスキャンに基づいて患者の肺がんのリスクを評価できるディープラーニングモデルを開発しました。また、革命的な進歩として、研究者たちはAIを使ってゼロから人工的な酵素やタンパク質を作り出すことが可能なAIを開発しました。 他にも多くのイノベーションの中で、人工知能は視覚障害のある人々が食料品を見つけるのを手助けするために手杖に統合されました。一方、ビジネスのフロントでは、OpenAIがMicrosoftとの数年間にわたる数十億ドルの取引を通じてAIの開発に大きく投資しました。 2023年2月のAIハイライト 2023年2月には、OpenAIのChatGPTに関する話題が最も盛り上がりました。このAI搭載のチャットボットは、アメリカ合衆国医師資格試験(USMLE)に合格し、その人気は1億人以上のユーザーにまで急上昇しました。 ChatGPTの現象に応えて、GoogleはAI会話の領域に新しい要素となるBard A.I.を導入しました。また、MicrosoftもChatGPTと統合された新しいBing検索エンジンの導入に重要な一歩を踏み出しました。 Metaは、Metaエコシステム内でAIの能力を向上させるというLLaMAを発表しました。一方、Amazon Web Services(AWS)は、一流のAIプラットフォームであるHugging Faceと提携し、AI開発者を支援しました。 画期的な成果として、オックスフォードの研究者たちはRealFusionを示し、単一の画像から完全な360°写真モデルを再構築することができる最新のモデルを実証しました。 2023年2月には、AIの世界は音楽生成の領域にも足を踏み入れました。Google ResearchはMusicLMを紹介し、さまざまなジャンル、楽器、概念で曲を作成できるトランスフォーマーベースのテキストからオーディオへのモデルを提供しました。一方、Baiduの研究者はERNIE-Musicを発表し、拡散モデルを使用して、波形領域での最初のテキストから音楽を生成するモデルを開発しました。これらのモデルは、AIと創造的表現の融合における重要な進歩を示しています。 2023年3月のAIハイライト 2023年3月には、創造的なAIはいくつかの興味深い進展を見せました。AdobeはFireflyというAIをバックアップする画像生成および編集ツールの範囲でGenAIの領域に参入しました。一方、Canvaはユーザー向けにAIパワードの仮想デザインアシスタントとブランドマネージャーを導入しました。 テックジャイアンツのAIプロジェクトは、第1四半期終盤に向けて全力で進展していました。OpenAIはChatGPTとWhisperというテキストから音声へのモデルのためのAPIを発売しました。OpenAIはまた、ChatGPTのためのいくつかのプラグインをリリースし、最も高度なAIモデルであるGPT-4を正式に発表しました。 HubSpotはユーザー向けにChatSpot.aiとContent Assistantという2つの新しいAIパワードツールを導入しました。ZoomはスマートコンパニオンのZoom…

『ジェネラティブAIの電力消費の定量化』

更新日:2023年12月11日—アナウンスメントにおいてAMDが予想する売上高の倍増を反映するため、アナウンスメントの付録に改訂された分析Generative AIにはグラフィックス処理ユニット(GPU)が必要であり、それらはたくさん必要とされます計算が…

Find the right Blockchain Investment for you

Web 3.0 is coming, whether buy Coins, NFTs or just Coding, everyone can participate.

Advertising with us