Learn more about Search Results コンポーネント

「Würstchenをご紹介します:高速かつ効率的な拡散モデルで、テキスト条件付きコンポーネントは画像の高圧縮潜在空間で動作します」

テキストから画像を生成することは、テキストの説明から画像を作成する人工知能の難しい課題です。この問題は計算量が多く、訓練コストもかかります。高品質な画像の必要性は、これらの課題をさらに悪化させます。研究者たちは、この領域において計算効率と画像の忠実度のバランスを取ろうとしてきました。 テキストから画像を効率的に生成するために、研究者たちはWürstchenという革新的なソリューションを導入しました。このモデルは、ユニークな2段階の圧縮手法を採用することで、この分野で際立っています。ステージAではVQGANが使用され、ステージBではDiffusion Autoencoderが使用されます。これらの2つのステージをまとめてデコーダと呼びます。彼らの主な機能は、高度に圧縮された画像をピクセル空間にデコードすることです。 Würstchenの特筆すべき点は、その卓越した空間圧縮能力です。従来のモデルでは一般的に4倍から8倍の圧縮率を達成していましたが、Würstchenは驚異的な42倍の空間圧縮を実現しています。この画期的な成果は、16倍の空間圧縮後に詳細な画像を正確に再構築するのが難しい一般的な手法の制限を超える、その新しい設計の証明です。 Würstchenの成功は、2段階の圧縮プロセスに起因しています。ステージAのVQGANは、画像データを高度に圧縮された潜在空間に量子化する重要な役割を果たします。この初期の圧縮により、後続のステージに必要な計算リソースが大幅に削減されます。ステージBのDiffusion Autoencoderは、この圧縮された表現をさらに洗練し、驚くほどの忠実度で画像を再構築します。 これら2つのステージを組み合わせることで、テキストのプロンプトから効率的に画像を生成するモデルが実現されます。これにより、訓練の計算コストが削減され、推論がより高速に行えるようになります。重要なのは、Würstchenが画像の品質を犠牲にすることなく、さまざまなアプリケーションにとって魅力的な選択肢となっていることです。 さらに、WürstchenはステージCであるPriorも導入しており、高度に圧縮された潜在空間で訓練されています。これにより、Würstchenは新しい画像解像度に迅速に適応することができ、異なるシナリオに対する微調整の計算負荷を最小限に抑えることができます。この適応性により、さまざまな解像度の画像を扱う研究者や組織にとって、多目的なツールとなっています。 Würstchenの訓練コストの削減は、Würstchen v1が512×512の解像度で訓練された場合、同じ解像度でStable Diffusion 1.4に必要とされる150,000 GPU時間の一部である9,000 GPU時間だけで済んだという事実によって示されています。この大幅なコスト削減は、研究者の実験において恩恵をもたらし、このようなモデルのパワーを活用する組織にとってもよりアクセスしやすくなります。 まとめると、Würstchenはテキストから画像を生成するという長年の課題に対する画期的なソリューションを提供しています。革新的な2段階の圧縮手法と驚異的な空間圧縮率により、この領域の効率性の新基準が確立されました。訓練コストの削減とさまざまな画像解像度への迅速な適応性により、Würstchenはテキストから画像を生成する研究やアプリケーション開発を加速する価値あるツールとなっています。

Salesforceの研究者は、XGen-Image-1を導入しました:複数の事前学習済みコンポーネントを再利用するために訓練されたテキストから画像への潜在的な拡散モデル

画像生成は、人工知能(AI)の中で先駆的な分野として登場し、マーケティング、営業、および電子商取引の領域において前例のない機会を提供しています。AIと視覚的コンテンツ作成の融合は、デジタルコミュニケーションの新たな時代を迎え、ビジネスがオーディエンスとの関係を根本的に変えることを意味しています。技術が進化するにつれて、テキストと画像の間のギャップは徐々に縮まり、創造力の領域が開かれています。 この急速に変化する風景の中で、Salesforce Researchチームは画期的なイノベーションであるXGen-Image-1を紹介しています。この画期的な生成型AIは、テキストを画像に変換することに特化しています。画像生成拡散モデルの能力を活用することで、XGen-Image-1は視覚領域を再構築する可能性を秘めています。このモデルのトレーニングは、TPUとLAIONデータセットを使用して$75,000の予算で行われ、注目すべき成果を示しています。そのパフォーマンスは、高い評価を受けているStable Diffusion 1.5/2.1モデルと同等です。 チームのブレークスルーの核心には、転換的な発見があります。潜在モデルである変分オートエンコーダ(VAE)と容易にアクセスできるアップサンプラーの融合が主役です。この革新的な組み合わせにより、32×32などの驚くべき低解像度でのトレーニングが可能になり、簡単に高解像度の1024×1024画像を生成することができます。このイノベーションにより、画像の品質を損なうことなくトレーニングコストが大幅に削減されます。チームの緻密なアプローチにより、自動的な棄却サンプリング、PickScore評価、および推論中の改善が戦略的に行われ、高品質の画像が一貫して生成され、技術の信頼性が高まります。 さらに深く掘り下げると、チームはその手法の複雑な層を解明しています。XGen-Image-1は、ピクセルベースの拡散モデルと潜在ベースの拡散モデルを調和させる潜在的拡散モデルのアプローチを採用しています。ピクセルベースのモデルは個々のピクセルを直接操作しますが、潜在ベースのモデルは圧縮された空間領域でのノイズ除去されたオートエンコード画像表現を活用します。チームの探求は、トレーニング効率と解像度のバランスにおける事前学習されたオートエンコーディングとピクセルアップサンプリングモデルの統合につながります。 データの役割は非常に重要です。XGen-Image-1のトレーニングプロセスの基盤となるLAION-2Bデータセットは、4.5以上の美的評価に基づいて慎重にキュレーションされたものです。この広範なデータセットは、多様で現実的な画像を生成するモデルの能力を高めます。TPU v4を使用してトレーニングインフラストラクチャを最適化することは、チームの革新的な問題解決力を強調しており、ストレージとチェックポイント保存の課題に熟練した対処を行っています。 パフォーマンス評価は、XGen-Image-1の能力の試金石となります。Stable Diffusion 1.5および2.1モデルとの比較分析により、CLIPスコアやFIDなどの優れた指標が示されています。特に、このモデルは迅速な整合性と写真のようなリアリズムに優れており、FIDスコアではStable Diffusionモデルを上回り、競争力のある人間評価パフォーマンスを示しています。棄却サンプリングの統合は、画像出力の改善における効果的なツールとして浮かび上がり、不十分な要素の向上には埋め込み技術などの戦略的な手法が補完されます。 XGen-Image-1の出現は、Salesforce Researchチームの不断のイノベーションへの取り組みを象徴しています。彼らの潜在モデル、アップサンプラー、自動化戦略のシームレスな融合は、創造的な景観を再構築するジェネレーティブAIの可能性を体現しています。開発が進むにつれて、チームの洞察力はAIによる画像作成の軌道を形作り、産業や観客に響く変革的な進歩の道を開くことになります。

このAI論文は、大規模なビジョン・ランゲージ・ナビゲーション(VLN)トレーニングのための効果的なパラダイムを提案し、パイプライン内の各コンポーネントの影響を定量的に評価しています

ビジュアルナビゲーションの学習のために、いくつかの人間のデモが収集され、最近の巨大なデータセットには数百の対話的なシナリオが含まれており、エージェントのパフォーマンスの大幅な改善につながっています。ただし、このような大規模なトレーニングを行うには、ナビゲーショングラフの構築方法、破損したレンダリングされた画像の復元方法、およびナビゲーション指示の生成方法など、いくつかの重要なサブ問題を解決する必要があります。これらすべてが収集されたデータの品質に大きな影響を与えるため、徹底的に探求されるべきです。 大規模なデータを効率的に活用し、ナビゲーションエージェントのトレーニングに適切に利益をもたらす方法を研究することが必要であり、人間の自然言語を理解し、写真のような環境でナビゲーションすることができるエージェントは、洗練されたモジュール化されたシステムです。 オーストラリア国立大学、OpenGVLab、上海AI研究所、UNCチャペルヒル、アデレード大学、Adobe Researchの研究者たちは、大規模なビジョンと言語のナビゲーションネットワーク(VLN)をトレーニングするために、パイプライン内の各コンポーネントの影響を統計的に評価する新しいパラダイムを提供しています。彼らはHabitatシミュレータを使用して、HM3DとGibsonのデータセットから環境を使用し、環境のためのナビゲーショングラフを構築します。彼らは新しい軌跡をサンプリングし、指示を作成し、エージェントをトレーニングして下流のナビゲーション問題を解決します。 AutoVLNやMARVALなどの従来の方法とは異なり、これらのナビゲーショングラフは、過剰な視点サンプリングと集約手法を使用して構築され、導入されたグラフ作成ヒューリスティックを使用しています。このアプローチにより、広範な屋外カバレッジを持つ完全に接続されたネットワークが得られます。 研究者たちはまた、HM3DとGibsonの設定から生成された破損した生成画像から、壊れた、変形した、または欠落した部分の写真のような画像を生成するために、Co-Modulated GANをトレーニングします。これにより、視覚データのノイズの影響を軽減することができます。MARVALとは異なり、この大規模なトレーニング体制は完全に再現可能で実行が容易であり、エージェントのパフォーマンスを大幅に向上させます。 包括的な実験により、エージェントがR2Rなどの特定の指示に基づいて下流のタスクでより良いパフォーマンスを発揮するためには、ナビゲーショングラフが完全にトラバーサブルである必要があります。さらに、Gibsonの環境からの低品質な3Dスキャンに対して生成された画像から写真のような画像を復元する利点も示されています。研究結果は、エージェントが一般的により多様な視覚データを使用でき、新しいシーンから学習することにより新しいコンテキストへの一般化を向上させることができることを示しています。 さらに、チームは、基本的なLSTMベースのモデルによって提供される拡張指示を使用してトレーニングされたエージェントがさまざまなナビゲーションタスクでうまく機能することを検証しました。彼らは、拡張データを元のデータと統合し、事前トレーニングと微調整中にエージェントの一般化能力を向上させることができると結論付けています。 驚くべきことに、データ拡張やエージェントのトレーニングのための上記の分析をガイドとして使用することで、提案されたVLNモデルは、先行探索、ビームサーチ、またはモデルのアンサンブルなしで単純な模倣学習によってR2Rテスト分割で80%の成功率を達成し、見たことのない環境とのナビゲーションギャップを解消します。この結果は、以前の最良の手法(73%)と比べて、パフォーマンスの差を人間のレベルに約6パーセントポイントまで縮める大幅な改善です。CVDNやREVERIEなどのいくつかの言語によるビジュアルナビゲーションの課題へのアプローチは、最先端を前進させました。強化されたデータは離散的であるにもかかわらず、連続的な環境(R2R-CE)においてVLNのパフォーマンスが5%成功率向上していることも示しています。

「大規模言語モデルは本当にそのすべての層が必要なのか? このAI研究がモデルの効率を明らかにする:大規模言語モデルにおける必須コンポーネントの追求」

大規模言語モデル(LLM)の出現により、特にChatGPTの登場により、一般の人々の間で大きな関心が集まっています。これらのモデルは、膨大な量のデータでトレーニングされ、最小限の例でも文脈を学習することができます。今年、Association for Computational Linguistics(ACL)の会議で発表された論文では、文脈学習のためのモデルのスケールの重要性とLLMアーキテクチャの解釈可能性について詳しく調査しています。 この研究では、MetaがGPT-3のオープンレプリカとして開発した66兆パラメータのLLMであるOPT-66Bモデルに焦点を当てています。研究者たちは、LLMのすべてのコンポーネントが文脈学習において重要であるかどうかを判断し、改善されたトレーニングの可能性のある領域についての洞察を提供することを目指して、OPT-66Bを分析しました。 LLMはTransformerアーキテクチャを使用して構築されており、アテンションメカニズムに依存しています。このメカニズムにより、モデルは現在のトークンを生成する際に、どの前のトークンに焦点を当てるべきかを予測することができます。これらのLLMは、複数のアテンションメカニズムを並列に使用するマルチヘッドアテンションを利用しています。OPT-66Bは、72のアテンションヘッドを含む64層から構成されています。マルチヘッドアテンションの出力は、各層ごとに個別のフィードフォワードネットワーク(FFN)を通過します。 OPT-66Bモデルを調査するために、研究者たちは2つの方法を使用しました。まず、各アテンションヘッドとFFNにスコアを割り当て、与えられたタスクに対する重要性を判断しました。これらのスコアを使用して、モデルをプルーニングし、一部のコンポーネントを破棄しました。驚くべきことに、パフォーマンスに影響を与えることなく、モデルのかなりの部分が削除できることがわかりました。これは、OPT-66Bや他の著名なLLMが未学習である可能性があることを示唆しています。 研究者たちは、重要なアテンションヘッドがモデルの中間層に主に存在し、重要なFFNが主に後の層に存在することを発見しました。驚くべきことに、アテンションヘッドの約70%(約157億のパラメータ)を削除しても、14の異なる自然言語処理(NLP)データセット/タスクでのゼロまたはフューショットの文脈学習の能力はほとんど影響を受けませんでした。さらに、タスクとショットにわたる文脈学習に責任がある共通のアテンションヘッドのサブセットを特定し、タスクに対してタスクに依存しない機能性を示しました。さらに、ゼロまたはフューショットの文脈学習にほとんど影響を与えずに、FFNの約20%(約85億のパラメータ)を削除できることも確認しました。 2番目の解析技術では、研究者たちはOPT-66Bのすべてのアテンションヘッドが、文脈学習に関連するタスクに対してタスクに依存しない原始的な操作を実行する能力を評価しました。これらの操作には、プレフィックスの一致とコピーが含まれます。これにより、現在のトークンの前の出現を検索し、次のトークンをコピーすることができます。彼らは、一部のアテンションヘッドが両方のプリミティブに対して重要なスコアを示したことを発見しました。興味深いことに、これらのヘッドは、特定のタスクに対して重要であると特定されたアテンションヘッドとも重なっており、潜在的なコンセプトマッチングなどのより洗練された文脈学習行動に関与している可能性を示しています。 この研究は、文脈学習において重要なアテンションヘッドとFFNのみが存在し、OPT-66Bや他の主要なLLMが未学習であることを示し、最近の研究で固定された事前トレーニングデータの効果に疑問が投げかけられていることに合致しています。結果は、最適なパフォーマンスを実現するために、モデルと事前トレーニングデータの量の両方を同時にスケーリングする必要があることを示唆しています。将来の調査では、指示に従うように設計された新しいLLMバリアントが同様の分析でどのような結果を示すかを探ることができます。

生きています!Pythonと安価で基本的なコンポーネントを使用して最初のロボットを構築してください

このガイドでは、コンピュータビジョン、ネットワーキング、計算などの真剣なロボット工学スキルを教えてくれる、楽しいロボットのおもちゃをいくつか作ります

「Plotlyを使用したダイナミックなコロプレス可視化の作成」

データを視覚化することは、データサイエンティストによって見過ごされがちなステップですデータを分析し、整理してわかりやすい形にすることで、物語を伝えることができますすべての技術的な詳細を取り除くことで...

パスライトのCTO兼共同創設者、トレイ・ドイグのインタビューシリーズ

トレイ・ドイグは、パスライトの共同創設者兼CTOですトレイは、IBM、クリエイティブ・コモンズ、Yelpでエンジニアとして働いた経験を持つ、テック業界で10年以上の経験を持っていますTreyは、Yelp Reservationsのリードエンジニアであり、SeatMeの機能をYelp.comに統合する責任を負っていましたTreyはまた、SeatMeウェブアプリケーションの開発を率いました...

コンテナの力を解放する:あらゆる開発ニーズに対応するトップ20のDockerコンテナを探索する

イントロダクション Dockerコンテナは、ソフトウェア開発とデプロイメントの急速に進化する風景で欠かせないツールとして登場しました。アプリケーションをパッケージ化、配布、実行するための軽量かつ効率的な方法を提供しています。この記事では、さまざまなカテゴリーでのトップ20のDockerコンテナについて詳しく説明し、その機能、使用例、開発ワークフローの合理化への貢献を紹介します。 Webサーバーとコンテンツ管理 Webサーバー Nginx Nginxは、優れたパフォーマンスと拡張性で称賛される多目的のWebサーバーおよびリバースプロキシです。軽量な構造と同時接続の適切な管理により、効率を求める開発者にとって上位の選択肢となっています。主な特徴には、堅牢な負荷分散機能、静的コンテンツの効率的な処理、高度なセキュリティ機能があります。その用途は、静的ウェブサイトの提供からマイクロサービスの負荷分散、アプリケーションサーバーのリバースプロキシまでさまざまです。 Apache HTTP Server Apache HTTP Serverは、Webサーバーのランドスケープでの草分けとして、動的なコンテンツの配信において堅固なオプションです。モジュラーデザインと豊富な設定可能性のために有名で、さまざまなアプリケーションに容易に適応できます。主な特徴には、包括的なモジュールサポート、優れた設定可能性、堅牢なコミュニティの支援があります。その用途は、動的ウェブサイトのホスティング、PHPアプリケーションの実行、さまざまなウェブベースのアプリケーションのバックエンドサーバーまで広がっています。 Traefik もう1つのDockerコンテナであるTraefikは、マイクロサービスアーキテクチャに特化した現代のリバースプロキシとロードバランサーです。動的な構成と自動的なサービスディスカバリーが魅力で、コンテナ化された環境に最適な選択肢となっています。主な特徴には、自動的なサービスディスカバリー、コンテナオーケストレーションツールとのシームレスな統合、Let’s Encryptのサポートが含まれており、SSL/TLS証明書の自動プロビジョニングを可能にします。その用途は、マイクロサービスの負荷分散や指定されたルールに基づいたトラフィックルーティングから、SSL/TLS証明書を自動的に管理することによるセキュアな通信の促進まで、現代のインフラストラクチャセットアップにおける重要なツールとなっています。 コンテンツ管理システム WordPress WordPressは、インターネットの大部分を支える支配的なコンテンツ管理システムです。WordPressをDocker化することで、展開を合理化し、拡張性のある環境でコンテンツ管理ニーズを効率化することができます。その大きな特徴は、広範なプラグインエコシステム、ユーザーフレンドリーなインターフェース、堅牢なコミュニティのサポートです。ブログやコンテンツ作成を支援するだけでなく、ビジネスウェブサイトの構築やオンラインコミュニティの監督など、さまざまなウェブ関連の活動に適応する柔軟なソリューションとなっています。 データベースとデータストア 関係性データベース MySQL MySQLは、広く使われているオープンソースの関係性データベースで、高速性と信頼性が評価されています。MySQLのDocker化は、さまざまなアプリケーションでのデータベースの設定と管理を簡素化します。ACID準拠、レプリケーションとクラスタリングの堅牢なサポート、高性能な機能が主な特徴です。その用途は、ウェブアプリケーションのバックエンドストレージ、eコマースプラットフォームのデータストレージの管理、コンテンツ管理システムのサポートなど、さまざまなドメインでのさまざまなストレージニーズの適応性を示しています。 PostgreSQL PostgreSQLは、拡張性と標準への厳格な準拠で称賛される堅牢なオープンソースの関係性データベースです。PostgreSQLのDocker化により、展開に柔軟性をもたらす移植可能なレプリケーション可能なデータベース環境が実現できます。その特徴には、カスタム関数と演算子による拡張性、データの信頼性を保証するACID準拠、複雑なクエリの強力なサポートが含まれます。その用途は、ジオグラフィック情報システム(GIS)のパワーリング、データウェアハウジングのニーズのサポート、金融アプリケーションの複雑な要件への対応など、厳密なデータ処理とクエリ処理機能を必要とするさまざまなドメインに広がっています。…

『中にFunSearch:GoogleのDeepMindの新しいLLM、新しい数学とコンピューターサイエンスのアルゴリズムを見つけることができる』

新しい科学の発見は、AIモデルにとって最も完全なチューリングテストかもしれません新しい科学の方法には、多くの分野からの知識を組み合わせた複雑な推論スキルや、常に実験を行う必要があります...

グーグルのディープマインドリサーチは、FunSearchを紹介します:数学とコンピュータ科学の新しい解決策を検索するための新しい人工知能手法

LLMは、人間のようなテキストの理解と生成に優れており、機械と人間のコミュニケーションを改善するために、人の言語を模倣した応答を理解し生成することができます。これらのモデルは言語翻訳、要約、質問応答、テキスト生成、感情分析など、多様なタスクで柔軟かつ適応性があります。その柔軟性により、さまざまな産業やアプリケーションに展開することが可能です。 ただし、LLMは時に幻覚を見ることがあり、正当ながら誤った主張をすることがあります。GPTモデルのような大規模言語モデルは、言語理解と生成において非常に高度であり、入力やプロンプトが曖昧、矛盾、または誤解を招く場合、モデルは入力の解釈に基づいて幻覚的な応答を生成する可能性があります。 Google DeepMindの研究者は、この制限を克服するために、FunSearchと呼ばれるメソッドを提案しています。これは、事実誤認や誤ったアイデアに対してガードする、事前にトレーニングされたLLMと評価器を組み合わせています。FunSearchは、複数の重要な要素を組み合わせることで、初期のスコアの低いプログラムを高スコアのプログラムに進化させ、新しい知識を発見するプログラムを生成します。 FunSearchは繰り返しのプロセスとして機能し、各サイクルでシステムは現在のプールから特定のプログラムを選択します。これらの選択されたプログラムはLLMによって処理され、革新的に拡張された新鮮なプログラムを生成し、自動評価を受けます。最も有望なプログラムは既存のプログラムのプールに再導入され、自己向上のループが確立されます。 研究者は、性能の良いプログラムをサンプリングし、それらを改善するためにLLMに戻すことでその機能を向上させます。彼らは骨格としての初期プログラムから始め、制御を司る重要なプログラムロジックのみを進化させます。彼らは各ステップに優先関数を配置することで意思決定を行います。彼らは多様なプログラムの大規模なプールを維持するために島ベースの進化的手法を使用します。新しい結果を見つけるために非同期にスケールさせます。 FunSearchは、ビンパッキングと同じ一般的な戦略を使用します。最も容量が少ないビンにしかアイテムを割り当てないのは、アイテムを配置した後に非常にきついフィットがされている場合のみです。この戦略により、埋まらない小さな隙間がなくなります。FunSearchの重要なコンポーネントの一つは、直接的に構成物を検索するのではなく、プログラムの空間で動作することです。これにより、FunSearchは実世界の応用の可能性を持ちます。 もちろん、これはただの初期段階です。FunSearchの進歩は、LLMの広範な進化と自然に一致します。研究者は、社会に存在するさまざまな重要な科学的および技術的な課題に対処するために、その機能を拡張し続けることを約束しています。

Find the right Blockchain Investment for you

Web 3.0 is coming, whether buy Coins, NFTs or just Coding, everyone can participate.

Advertising with us