Learn more about Search Results A - Page 155

「Google Quantum AIは、薬学、化学、および原子力エネルギーに関連する量子計算の応用を探るために3つのケーススタディを紹介します」(Google Quantum AIが、やくがく、かがく、およびげんしりょくエネルギーにかんれんするりょうしけいさんのおうようをさぐるためにみっつのけーすすたでぃをしょうかいします)

さまざまな産業は、量子コンピューティングの変革的な可能性を賞賛していますが、有限サイズの問題に対する応用の実用性は疑問の残るところです。Google Quantum AIの共同研究は、量子コンピュータが古典コンピュータを上回る問題を特定し、実用的な量子アルゴリズムを設計することを目指しています。最近の取り組みには以下のものがあります: 酵素化学の研究。 リチウムイオンバッテリーの持続可能な代替手段の探索。 慣性収束融合実験用の材料モデリング。 実用的な量子コンピュータはまだ利用できませんが、彼らの取り組みは結果としてこれらの応用の効率的な量子アルゴリズムを実行するために必要なハードウェアの仕様を提供します。 Boehringer Ingelheimとコロンビア大学との共同研究により、Google Quantum AIは酵素ファミリーCytochrome P450の複雑な電子構造の理解における量子コンピューティングの応用を探索しました。これらの酵素は薬物代謝において重要な役割を果たしています。古典的な手法と量子的な手法を比較することで、彼らは量子コンピュータの高い精度がこの系統の複雑な化学を正確に解決するために不可欠であることを示しました。研究では、量子の利点は系統の大きさが大きくなるにつれてますます顕著になり、この問題において量子の利点を実現するために数百万個の物理的なキュービットが必要であることを示しました。 リチウムイオンバッテリーはさまざまな応用に欠かせないものですが、しばしばコバルトに依存しており、環境上の懸念や倫理的な問題があります。研究者はコバルトの代替手段としてリチウムニッケル酸化物(LNO)を探求しました。LNOの特性を理解することが重要です。「Bloch軌道を用いた物質の耐故障性量子シミュレーション」と題された論文では、BASF、QSimulate、マクワリー大学との共同研究により、LNOのような周期的な原子構造に対する量子シミュレーション技術が開発されました。彼らの研究では、量子コンピュータがLNOのエネルギーを効率的に計算できることが分かりましたが、現時点では実用的ではないほどの量のキュビットが必要とされており、将来の改善に期待が寄せられています。 研究者は、極限条件下での慣性収束融合実験のための量子シミュレーションを探求しています。これは反応速度の計算に焦点を当てており、炉の効率にとって重要です。量子アルゴリズムは有望であり、リソース要件は以前の応用の間に位置づけられています。不確定性は残りますが、これは複雑なシステムのシミュレーションにおいて系統的なエラーを導入する平均場法に依存する古典的な代替手法よりも優れています。 研究者は物理系のシミュレーションに対するエラーコレクションされた量子コンピュータの将来的な具体的な応用を提示し、複雑な問題を解決する可能性を示しています。静的な基底状態の問題とは異なり、量子ダイナミクスは時間の経過に伴う量子システムの進化を伴います。共同研究により、量子アルゴリズムが効率と精度において近似的な古典的な計算を上回ることが明らかになりました。これらのアルゴリズムの開発は、エラーコレクションされた量子コンピュータの準備が整い、それらの能力についての誇張された主張を排除することを保証します。

「イェール大学とGoogleの研究者が、効率的な長距離シーケンス処理のために大規模言語モデルを迅速に加速する近似Attentionメカニズム、HyperAttentionを紹介する」という文章です

大規模言語モデルの急速な進歩により、チャットボットから機械翻訳までの幅広いアプリケーションが可能になりました。ただし、これらのモデルはしばしば効率的に長いシーケンスを処理するための支援が必要です。入力シーケンスの長さが増えると、これらのモデルの注意機構はますます計算コストが高くなります。研究者たちは、この課題に対処する方法を探索し、大規模言語モデルをさまざまなアプリケーションにより実用的にすることを試みています。 最近、研究チームは「ハイパーアテンション」と呼ばれる画期的な解決策を紹介しました。この革新的なアルゴリズムは、特に長いシーケンスを扱う際に大規模な言語モデルの注意機構の近似を効率的に行います。既存のアルゴリズムを単純化し、注意行列内の主要なエントリを特定するために様々な技術を活用することで、計算を加速させます。 ハイパーアテンションによる大規模言語モデルの効率の問題解決アプローチには、いくつかの重要な要素があります。詳細を見てみましょう。 スペクトル保証:ハイパーアテンションでは、近似の信頼性を確保するためにスペクトル保証の実現を重視しています。条件数に基づいたパラメータ化を利用することで、通常この領域で行われる特定の仮定の必要性を低減させます。 主要なエントリの特定のためのSortLSH:ハイパーアテンションは、ハミングソートされたLocality-Sensitive Hashing(LSH)技術を使用して効率を向上させます。この方法により、アルゴリズムは注意行列内の最も重要なエントリを特定し、より効率的な処理のために対角線と整列させます。 効率的なサンプリング技術:ハイパーアテンションは、注意行列内の対角エントリを効率的に近似し、値行列との行列積を最適化します。このステップにより、大規模な言語モデルが性能を大きく低下させることなく、長いシーケンスを処理できるようにします。 柔軟性と利便性:ハイパーアテンションは、異なるユースケースの処理に柔軟性を提供するよう設計されています。論文で示されているように、事前定義されたマスクを使用する場合や、sortLSHアルゴリズムを使用してマスクを生成する場合に効果的に適用できます。 ハイパーアテンションの性能は印象的です。推論とトレーニングの両方で大幅な高速化が可能であり、大規模な言語モデルにとって貴重なツールとなっています。複雑な注意計算を簡素化することで、長いシーケンス処理の問題を解決し、これらのモデルの実用性を向上させています。 結論として、HyperAttentionの研究チームは大規模な言語モデルにおける効率的な長距離シーケンス処理の課題に取り組む上で、重要な進展を遂げました。彼らのアルゴリズムは、注意機構に関与する複雑な計算を簡素化し、その近似に対してスペクトル的な保証を提供します。ハミングソートされたLSHのようなテクニックを活用することで、HyperAttentionは優勢なエントリを識別し、行列の積を最適化して推論とトレーニングのスピードアップを実現します。 このブレイクスルーは、大規模な言語モデルが中心的な役割を果たす自然言語処理において、有望な発展です。自己注意機構のスケーリングに新たな可能性を開き、これらのモデルをさまざまなアプリケーションにより実用的にします。効率的でスケーラブルな言語モデルへの需要がますます高まる中、HyperAttentionは正しい方向に向けた重要な一歩を象徴し、最終的にはNLPコミュニティの研究者や開発者に恩恵をもたらすものとなるでしょう。

「PIXART-αに会ってください:画像生成の品質が最先端の画像生成器と競争するTransformerベースのT2I拡散モデル」

テキストから画像への変換(T2I)生成モデルであるDALLE 2、Imagen、Stable Diffusionの開発により、フォトリアルな画像合成の新時代が始まりました。これは、写真編集、ビデオ制作、3Dアセットの作成などを含む多くの下流アプリケーションに大きな影響を与えています。ただし、これらの洗練されたモデルは大きな処理能力を要求します。たとえば、SDv1.5のトレーニングには6K A100 GPU日が必要で、コストは約$320,000です。より最新の大きなモデルであるRAPHAELの場合、さらに60K A100 GPU日が必要であり、コストは約$3,080,000です。また、トレーニングにより環境に負荷がかかるため、大量のCO2排出物を生み出します。たとえば、RAPHAELのトレーニングでは35トンのCO2排出物が生じます。これは、図1に示すように、一人が7年間に排出するCO2量と同じです。 図1: T2Iの生産者間でのCO2排出量とトレーニングコストの比較がここで示されています。PIXART-αのトレーニングには驚異的な$26,000がかかります。ただし、私たちのCO2排出量とトレーニング費用はRAPHAELよりもわずかに1.1%と0.85%少ないです。 このような高価格は、研究コミュニティや企業の両方におけるこれらのモデルの入手に大きな制約をもたらし、AIGCコミュニティの重要な進展を大幅に妨げています。このような困難に関して重要な問いが提起されています:リソース使用を管理可能なレベルにおいて、高品質の画像生成器を作成できるのでしょうか?華為ノアズアークラボ、大連理工大学、香港大学、香港科技大学の研究者は、PIXART-αを提案しました。それは、最新の最先端画像生成器と競争力のある画像生成品質を保ちながら、トレーニングの計算要件を劇的に低減します。それには、次の3つの主な設計が含まれます: 自然画像のピクセルの分布を学習すること テキストと画像の整合性を学習すること 画像の美的魅力を向上させること 彼らは、最初のサブタスクであるピクセルの分布の学習コストを著しく低減するために、T2Iモデルを低コストのクラス条件モデルで初期化することを提案しています。彼らは、2番目と3番目のサブタスクのための事前トレーニングと微調整で構成されるトレーニングパラダイムを提供します。高い情報密度を持つテキスト-イメージペアデータでの事前トレーニングに続いて、より美的品質の高いデータでの微調整を行い、トレーニングの効果を高めます。その他、T2Iトランスフォーマーという効率的なモデルの提供。彼らは、テキスト条件を注入するためにクロスアテンションモジュールを使用し、計算の要求が高いクラス条件ブランチの単純化をDiffusion Transformer(DiT)に基づいて行います。さらに、変更したテキストから画像へのモデルにオリジナルのクラス条件モデルのパラメータを直接インポートできる再パラメータ化方法を提案しています。 これにより、T2Iトランスフォーマーには受け入れ可能な初期化が可能になり、トレーニングを加速するためにImageNetの自然な画像分布の過去の知識が活用されます。高品質な情報。彼らの研究では、既存のテキスト-イメージペアデータセットに重要な欠陥があることが明らかになっています(例:LAION)。テキストのキャプションは、非常に低頻度で数多くの名詞が現れる重いロングテール効果や、画像内のオブジェクトの一部しか記述していない情報の欠如などの問題を抱えています。これらの欠点は、T2Iモデルのトレーニングの効果を大幅に低下させ、信頼性のあるテキスト-イメージの整合性を得るために何百万回もの反復が必要とされます。彼らは、これらの問題を克服するために、最も先進的なビジョン言語モデルを使用して自動ラベリングパイプラインを提案しています。 SAMデータセットは大きく多様なオブジェクトのコレクションを持つという利点があり、情報密度の高いテキスト-イメージのペアを生成するための理想的なソースです。彼らの巧妙な機能により、モデルのトレーニングは非常に効率的に行われ、675 A100 GPU日と$26,000のみで済みます。図1は、彼らの手法がImagenよりも少ないトレーニングデータ量(0.2% vs Imagen)とトレーニング時間(2% vs RAPHAEL)を使用し、RAPHAELの1%程度のトレーニング費用($3,080,000の代わりに$26,000)を削減する方法を示しています。 世代品質に関しては、PIXART-αは現在のSOTA…

このAI論文では、エッジコンピュータ上でも高品質な再構築とリアルタイム性能を実現するためのNeRFベースのマッピング手法が提案されています

この論文では、研究者たちはH2-Mappingと呼ばれるNeRFベースのマッピング手法を紹介しました。この手法は、ロボティクス、AR / VR、デジタルツインなどのリアルタイムアプリケーションでの高品質で密なマップの需要に対応することを目的としています。彼らが取り組んだ主な課題は、リアルタイムで詳細なマップを効率的に生成することであり、特に計算能力に限りがあるエッジコンピュータ上での実現です。 彼らは、これまでのマッピング手法がメモリ効率、マッピングの精度、新しい視点合成のバランスを取るのが難しく、一部のアプリケーションには適していないと指摘しています。NeRFベースの手法は、これらの制限を克服するための有望な手法を示していますが、一般的には時間がかかり、強力なエッジコンピュータでも時間がかかります。著者たちは、リアルタイムマッピングの主な要件(適応性、高い詳細度、リアルタイム性、新しい視点合成)を満たすために、新しい階層的なハイブリッド表現を提案しています。 提案された手法は、荒いシーンジオメトリのための明示的なオクトリーSDF事前情報と、細部の高解像度のための暗黙的なマルチリゾリューションハッシュ符号化を組み合わせています。この手法により、シーンジオメトリの初期化が高速化され、学習が容易になります。また、マッピング品質を向上させるために、カバレッジを最大化するキーフレーム選択戦略も導入されています。 実験の結果は、H2-Mappingが既存のNeRFベースのマッピング手法よりもジオメトリの精度、テクスチャのリアリズム、時間の消費量の面で優れていることを示しています。この論文では、手法のアーキテクチャと性能評価について網羅的な詳細が提示されています。 結論として、研究者たちはH2-Mappingを紹介しました。これは、階層的なハイブリッド表現を持つNeRFベースのマッピング手法であり、エッジコンピュータでも高品質なリアルタイムマッピングを実現しています。彼らの手法は既存の手法の制限を解消し、精度と効率の両面で有望な結果を示しています。

JAXを使用してRL環境をベクトル化・並列化する:光の速さでのQ学習⚡

前回の話では、グリッドワールドのコンテキストで、特にQ学習に焦点を当て、時間差学習を紹介しましたこの実装は、デモンストレーションの目的を果たすために役立ちましたが、...

「AIの民主化:MosaicMLがオープンソースLLM運動に与える影響」

最近、私たちはオープンソースの大規模言語モデル(LLM)の作成に関する多くの最新の研究を概観しましたこのすべての研究の中で、共通のフレームワークを使用してモデルが作成されますが、そのうちのいくつかは…

「AI天気モデルのためのベンチマークデータセット」

「ベンチマークデータセットは、機械学習研究において基礎的な要素ですWeatherBenchは、AI気候および天気モデルのためのベンチマークを提供します」

初心者向けチュートリアル:Microsoft Azureで企業データをGPTモデルに接続する

「GPTモデルと生成AIに関して、昨年は大いに話題になりました完全な技術革命が約束されたという主張はやや大げさかもしれませんが、GPTが…」

「フォンダンAIは、クリエイティブ・コモンズ・ライセンスに基づいた画像テキストのペアデータセット、フォンダン-25Mを公開しました」

大量のデータの処理と分析を行うことを大規模データ処理と呼びます。これには有益な洞察の抽出、情報に基づいた意思決定、複雑な問題の解決が含まれます。ビジネス、科学、医療など、さまざまな分野で重要です。ツールと方法の選択は、データ処理タスクの具体的な要件と利用可能なリソースによって異なります。Python、Java、Scalaなどのプログラミング言語は、大規模データ処理によく使用されます。この文脈では、Apache Flink、Apache Kafka、Apache Stormなどのフレームワークも価値があります。 研究者は、大規模データ処理を簡素化し高速化するための新しいオープンソースのフレームワーク「Fondant」を開発しました。データのダウンロード、探索、処理にはさまざまな埋め込みツールが備わっています。また、URLを介してのダウンロードや画像のダウンロード用のコンポーネントも含まれています。 Stable DiffusionやDall-Eなどの生成AIの現在の課題は、著作権付き作品を含むパブリックインターネットからの数億もの画像でトレーニングされていることです。これは、これらの画像を使用するユーザーにとって法的なリスクと不確実性を生じさせ、許可なく所有権のある作品が再現されることにおいて著作権保持者に対して不公平です。 これに対処するため、研究者はデータ処理パイプラインを開発し、クリエイティブ・コモンズの画像の5億のデータセットを作成し、潜在的な拡散画像生成モデルを訓練するために使用しました。データ処理パイプラインは、データの収集、処理、移動のために設計されたステップやタスクであり、さまざまな目的に対してデータが保存され、分析される場所へ移動されます。 カスタムデータ処理パイプラインを作成するには、いくつかのステップが必要であり、具体的なアプローチはデータソース、処理要件、ツールによって異なる場合があります。研究者は、カスタムパイプラインを作成するためのブロックを組み合わせる方法を使用しています。彼らは再利用可能なコンポーネントとカスタムコンポーネントを混ぜ合わせたFondantパイプラインを設計しました。さらに、それを本番環境に展開し、定期的なデータ処理の自動化を設定しました。 Fondant-cc-25mには、Creative Commonsライセンス情報を含む2,500万の画像URLが一括で簡単にアクセスできます!研究者は、ローカルユーザー向けの詳細なインストール手順を公開しています。パイプラインをローカルで実行するためには、ユーザーのシステムにDockerがインストールされ、Docker環境に少なくとも8GBのRAMが割り当てられている必要があります。 リリースされたデータセットには個人情報が含まれる可能性があるため、研究者はオープンアクセスの研究を実施し公開するための公共的な、非個人情報のみを含むデータセットを設計しました。彼らはデータセットのフィルタリングパイプラインはまだ進行中であり、他の研究者から匿名パイプラインの作成への貢献を歓迎しています。研究者は将来的には、画像ベースの重複削除、自動キャプション付け、視覚的品質評価、ウォーターマーク検出、顔検出、テキスト検出などさまざまなコンポーネントを追加したいと述べています!

AIはリアルなターミネーターになることができるのか?

「私たちはAIの開発と使用について注意を払う必要がありますそれが善に使われ、悪に使われないようにする必要があります - 倫理的なAI」となります

Find the right Blockchain Investment for you

Web 3.0 is coming, whether buy Coins, NFTs or just Coding, everyone can participate.

Advertising with us