Learn more about Search Results 17 - Page 10
- You may be interested
- 「RoboPianistに会いましょう:シミュレー...
- 「NVIDIA OmniverseでDLSS 3.5およびレイ...
- ウェブ上のPython
- トップAIアドベンチャー:OpenAIレジデンシー
- 私たちの新しいコンテンツガイドラインと...
- 「これらの3つのあまり知られていないPand...
- データエンジニアになる方法
- ランダムフォレストモデルの経営概要
- 「研究者がChatGPTを破った方法と、将来の...
- Intel CPUのNNCFと🤗 Optimumを使用した安...
- 「包括的な革新:Amazon SageMakerでのHac...
- 「プログラマーのための10の数学の概念」
- 「Googleは、データの不適切な使用によるL...
- 「LLMsはインコンテキスト学習を達成する...
- AIが生成したコンテンツは開発者のリスク...
「AIがインターネットを食べた年」
2023年を私たちがロボットとコミュニケーションを取り、創造し、ごまかし、協力する年と呼ぶことにしましょう
「アップルのiMessageでのBeeper Miniのブロックは、より大きなブルー/グリーンのバブルのサーガの一部です」
「Appleは顧客を保護するために予防策を取っていますBeeperは、Appleの最新の動きが正反対だと主張しています」
グーグルのマルチモーダルAIジェミニ-技術の深い潜水
「ジェミニを探索してくださいGoogleの高度なマルチモーダルAIモデルは、テキスト、画像、音声、動画など、さまざまな能力を持ち、クロスモーダルな関心を革新的に結集していますジェミニがGoogleのエコシステムに統合され、AIの新たな基準を設定していることを発見してください」
‘LLMがデータアナリストを置き換えることはできるのか? LLMを活用したアナリストの構築’
私たちの中の誰もが、昨年の少なくとも1度は、ChatGPTがあなたの役割を置き換えることができるか(いや、むしろいつか)と考えたことがあると思います私も例外ではありません私たちは、最近の...
ランタイム中に拡散モデルを動的に圧縮するためのシンプルで効果的な加速アルゴリズムDeepCacheを紹介します
人工知能(AI)とディープラーニングの進歩により、人間とコンピューターの相互作用は大きく変革されました。拡散モデルの導入により、生成モデリングはテキスト生成、画像生成、音声合成、映像制作などのさまざまなアプリケーションで驚異的な能力を示しています。 拡散モデルは優れた性能を示しているものの、これらのモデルは通常、モデルサイズの大きさと順次のノイズ除去手順に関連する高い計算コストがあります。これらのモデルは非常に遅い推論速度を持っており、モデルの剪定、蒸留、量子化などの手法を使用してステップごとのモデル推論のオーバーヘッドを低下させるなど、研究者によって様々な取り組みが行われています。 従来の拡散モデルの圧縮方法では、大量の再学習が必要であり、これには実用的および財務的な困難が伴います。この問題を克服するため、研究者チームはディープキャッシュと呼ばれる新しい学習フリーパラダイムを導入し、拡散を加速するために拡散モデルのアーキテクチャを最適化しました。 ディープキャッシュは、拡散モデルの連続したノイズ除去段階に固有の時間的冗長性を利用しています。この冗長性の理由は、いくつかの特徴が連続したノイズ除去ステップで繰り返されるためです。これにより、これらの特性のキャッシングと取り出しの方法を導入することで、重複計算を大幅に削減しています。チームは、このアプローチがU-Netの特性に基づいていることを共有しており、これにより高レベルの特徴を効果的かつ効率的に更新しながら、低レベルの特徴を再利用することができます。 ディープキャッシュの創造的なアプローチにより、Stable Diffusion v1.5に対して2.3倍の高速化が実現されており、CLIPスコアはわずか0.05の低下となっています。また、LDM-4-Gに対しては素晴らしい4.1倍の高速化が実現されており、ただしImageNetではFIDが0.22の低下となっています。 チームはDeepCacheを評価し、実験的な比較で現在の剪定および蒸留手法よりも優れたパフォーマンスを示すことを確認しました。また、既存のサンプリング手法とも互換性があることが示されています。DDIMやPLMSと同様の、またはわずかに優れた性能を示すことが報告されており、同時に生成される出力の品質を損なうことなく、効率を最大限に引き出しています。 研究者は、主な貢献を以下のようにまとめています。 DeepCacheは現在の高速サンプラーとうまく機能し、同様またはより良い生成能力を実現する可能性を示しています。 実行時に拡散モデルを動的に圧縮することで、画像生成の速度を改善しますが、追加のトレーニングは必要ありません。 キャッシュ可能な特徴を使用することで、高レベルの特徴における時間的一貫性を利用して、重複計算を削減します。 拡張キャッシング間隔に対するカスタマイズされた技術を導入することで、DeepCacheは特徴のキャッシュの柔軟性を向上させます。 DDPM、LDM、Stable Diffusionモデルにおいて、CIFAR、LSUN-Bedroom/Churches、ImageNet、COCO2017、PartiPromptでテストした場合、DeepCacheはより効果的な結果を示します。 再学習が必要な剪定および蒸留アルゴリズムよりも優れたパフォーマンスを発揮するDeepCacheは、高い効果性を維持します。 結論として、DeepCacheは従来の圧縮技術の代替手段として、拡散モデルのアクセラレータとして大いに期待されます。
次元性の祝福?!(パート1)
「これらの問題の1つまたは複数について、慎重に選ばれた科学者のグループが夏に一緒に取り組めば、重要な進展が期待できると私たちは考えています」と提案は述べましたジョンはまだ知りませんでしたが...
最近の人類学的研究によれば、クロード2.1の戦略的な促進を通じて、プロンプトに単一の追加をすることで、LLMsの記憶容量を70%増加させることができると報告されました
以下のHTMLコードを日本語に翻訳します(HTMLコードは結果に含めます): この研究は、Claude 2.1の機能における固有の課題に取り組んでいます:200,000トークンの文脈ウィンドウ内での個々の文に基づく質問に対する抵抗力です。このため、モデルのリコール能力を最大化する上で重要なハードルとなり、解決策の探求を促しています。 現在の手法を調査すると、Claude 2.1は、特に場違いとされる個々の文に関する質問に直面した際に躊躇することがわかります。これに対応して、Anthropicの研究者たちは、驚くほど効果的な解決策を提案しています:プロンプトの追加です。彼らは、「文脈内で最も関連のある文は次のとおりです:」という文をプロンプトに組み込むことを提案しています。この些細な調整は、メタコマンドに似ており、モデルのリコール能力を大幅に向上させます。 追加されたプロンプトは、Claude 2.1に関連する文を優先的に処理するよう指示するため、効果的にモデルの質問に対する躊躇を解消します。200,000文脈ウィンドウの評価において、Claudeのスコアは27%から98%に驚異的に向上するなど、パフォーマンスの改善が実証されています。 特に、このプロンプトを提供した後、単文のクエリの正確性が驚異的に90%増加しました。単文のクエリの正確性の増加は、追加されたプロンプトがClaude 2.1のパフォーマンスに与える重要な影響を示しています。この大幅な改善は、より広範な文脈内の単一の文の照会を処理する能力を高め、解決策の実用的な意義を示しています。 まとめると、この革新的な手法はClaude 2.1の躊躇を解消し、単一のプロンプトの追加によってリコール能力が70%向上することを示しています。研究チームの調査結果は、プロンプトの微妙な動態と言語モデルの振る舞いへの重要な影響について貴重な示唆を提供しています。AIコミュニティは大規模言語モデルの精度を高めるために改善を追求していますが、この発見は機能性の向上に実用的な意義を持つ注目すべき進展となります。 この記事はMarkTechPostの投稿から引用されました。
「わかっている?人間と機械の知能」
この記事では、知性の概念とコンピュータプログラムが知的であるという意味について探求してみましょう私たちは異なる専門用語や関連する概念を行き来することになります…
昨年、ビットコインマイニングはニューヨーク市よりも多くの水を使用しました
「ある調査によると、今年のビットコインマイナーによる水の使用量は5910億ガロンに達し、2021年の4150億ガロンから増加しました」
「Samet氏がACM SIGSPATIAL生涯影響力賞を受賞」
佐藤ハンアンは、ACMの特殊な関心事群であるSIGSPATIALから、初の終身功績賞を受賞しました
Find the right Blockchain Investment for you
Web 3.0 is coming, whether buy Coins, NFTs or just Coding, everyone can participate.