Learn more about Search Results 比較 - Page 13
- You may be interested
- 「OpenAI Dev Day 2023 創設者サム・オル...
- ルーターLangchain:Langchainを使用して...
- 「Pythonによるロジスティック回帰のエラ...
- AI教授:ハーバード大学、ChatGPTのような...
- 「解釈力を高めたk-Meansクラスタリングの...
- 「AIの風景でのデジタル実験とA / Bテスト...
- ドリームティーチャーというAIフレームワ...
- 「Stitch FixにおけるMLプラットフォーム...
- マイクロソフトとETHチューリッヒの研究者...
- 最後のチャンス!認定AIワークショップが2...
- 「PythonでゼロからGANモデルを構築および...
- ChatGPTを超えて;AIエージェント:労働者...
- 東京大学の研究者たちは、攻撃者から機密...
- 「Jupyter APIを使用してノートブックをス...
- 「Jupyter AIに会おう:マジックコマンド...
EAGLEをご紹介します:圧縮に基づく高速LLMデコードのための新しい機械学習手法
ChatGPTのような大規模言語モデル(LLM)は、さまざまな言語関連タスクでその手腕を発揮し、自然言語処理を革命化しました。しかし、これらのモデルは、各トークンの処理に完全な順方向のパスを必要とする自己回帰デコーディングプロセスに取り組んでいます。この計算のボトルネックは、パラメータセットが広範囲であるLLMにおいて特に顕著であり、リアルタイムアプリケーションの妨げとなり、制約のあるGPUの機能を持つユーザーに課題を与えます。 Vector Institute、ウォータールー大学、北京大学の研究者チームは、LLMデコーディングに固有の課題に対処するためにEAGLE(Extrapolation Algorithm for Greater Language-Model Efficiency)を導入しました。MedusaやLookaheadなどの従来の方法とは異なり、EAGLEは、第2トップレイヤーの文脈特徴ベクトルの外挿に焦点を当てる独自のアプローチを取っています。前例のない効率的な次の特徴ベクトルの予測を目指すEAGLEは、テキスト生成を大幅に加速する画期的な成果を提供します。 EAGLEの方法論の中核には、FeatExtrapolatorと呼ばれる軽量プラグインの展開があります。このプラグインは、元のLLMの凍結された埋め込み層と連携してトレーニングされ、第2トップレイヤーの現在の特徴シーケンスに基づいて次の特徴を予測します。EAGLEの理論的な基盤は、時間の経過に伴う特徴ベクトルの圧縮性にあり、トークン生成の迅速化の道筋をつけます。EAGLEの優れたパフォーマンスメトリックには注目です。通常のデコーディングと比較して3倍の速度向上を誇り、Lookaheadの速度を2倍にし、Medusaと比較して1.6倍の加速を実現します。もっとも重要なのは、生成されたテキストの分布の保存を確保しつつ、通常のデコーディングとの一貫性を保つことです。 https://sites.google.com/view/eagle-llm EAGLEの能力は、その加速能力を超えます。標準的なGPUでのトレーニングとテストが可能であり、より広いユーザーベースにアクセスできるようになっています。さまざまな並列技術とのシームレスな統合は、効率的な言語モデルデコーディングのツールキットへの価値ある追加として、その応用性を高めます。 FeatExtrapolatorへの依存度を考慮すると、EAGLEの方法論は軽量ですがパワフルなツールであり、元のLLMの凍結された埋め込み層と協力しています。この協力によって、第2トップレイヤーの現在の特徴シーケンスに基づいて次の特徴を予測することができます。EAGLEの理論的な基盤は、時間の経過に伴う特徴ベクトルの圧縮性に根ざしており、より効率的なトークン生成プロセスを実現します。 https://sites.google.com/view/eagle-llm 従来のデコーディング方法では、各トークンに対して完全な順方向のパスが必要であるのに対し、EAGLEの特徴レベルの外挿はこの課題を克服する革新的な方法を提供します。研究チームの理論的な探求は、テキスト生成を大幅に加速するだけでなく、生成されたテキストの分布の品質と一貫性を維持するために重要な側面も保持しています。 https://sites.google.com/view/eagle-llm 結論として、EAGLEはLLMデコーディングの長年の非効率性に対処するための希望の光として浮かび上がっています。EAGLEの背後にある研究チームは、自己回帰生成の核心問題に巧妙に取り組み、テキスト生成を劇的に加速するだけでなく、配布の一貫性も保持する方法を導入しました。リアルタイム自然言語処理が高い需要を持つ時代において、EAGLEの革新的なアプローチは、先駆者としての地位を確立し、先端の能力と実際の現実世界の応用との間の溝を埋める役割を果たしています。
地球は平らではなく、あなたのボロノイ図もそうであるべきではありません
「Pythonを使用して、ジオスペーシャルの精度を探索し、正確なジオスペーシャル分析における球面と2Dボロノイ図の違いを理解する」
ミストラルAIは、MoE 8x7Bリリースによる言語モデルの画期的な進歩を発表します
パリに拠点を置くスタートアップMistral AIは、MoE 8x7Bという言語モデルを発表しました。Mistral LLMは、各々が70億のパラメータを持つ8人の専門家からなる、サイズダウンされたGPT-4としてしばしば比較されます。特筆すべきは、各トークンの推論には8人の専門家のうち2人のみが使用され、効率的で効果的な処理手法を示していることです。 このモデルは、混合専門家(MoE)アーキテクチャを活用して、素晴らしいパフォーマンスと効率性を実現しています。これにより、従来のモデルと比べてより効率的で最適なパフォーマンスが得られます。研究者たちは、MoE 8x7Bが、テキスト生成、理解、コーディングやSEO最適化など高度な処理を必要とするタスクを含むさまざまな側面で、Llama2-70BやQwen-72Bなどの以前のモデルよりも優れたパフォーマンスを発揮することを強調しています。 これにより、AIコミュニティの間で多くの話題を呼んでいます。著名なAIコンサルタントであり、Machine & Deep Learning Israelコミュニティの創設者である人物は、Mistralがこのような発表を行っていることを称え、これを業界内で特徴的なものと評価しています。オープンソースAIの提唱者であるジェイ・スキャンブラー氏は、このリリースの異例性について言及しました。彼は、これがMistralによる故意の戦略であり、AIコミュニティからの注目と興味を引くためのものである可能性があると述べ、重要な話題を成功裏に生み出したと指摘しています。 MistralのAI分野における旅は、欧州史上最大と報じられている1億1800万ドルのシードラウンドという記録的な一歩で始まりました。同社は、9月には最初の大規模な言語AIモデルであるMistral 7Bのローンチにより、さらなる認知度を得ました。 MoE 8x7Bモデルは、各々が70億のパラメータを持つ8人の専門家を搭載しており、GPT-4の16人の専門家と1人あたり1660億のパラメータからの削減を表しています。推定1.8兆パラメータのGPT-4に比べ、推定総モデルサイズは420億パラメータです。また、MoE 8x7Bは言語問題に対するより深い理解を持っており、機械翻訳やチャットボットのインタラクション、情報検索の向上につながっています。 MoEアーキテクチャは、より効率的なリソース配分を可能にし、処理時間を短縮し、計算コストを削減します。Mistral AIのMoE 8x7Bは、言語モデルの開発において重要な進展を示すものです。その優れたパフォーマンス、効率性、柔軟性は、さまざまな産業やアプリケーションにおいて莫大なポテンシャルを持っています。AIが進化し続ける中、MoE 8x7Bのようなモデルは、デジタル専門知識やコンテンツ戦略を向上させたい企業や開発者にとって不可欠なツールとなることが予想されています。 結論として、Mistral AIのMoE 8x7Bのリリースは、技術的な洗練と非伝統的なマーケティング戦略を組み合わせた画期的な言語モデルを導入しました。研究者たちは、AIコミュニティがMistralのアーキテクチャを詳しく調査・評価していく中で、この先進的な言語モデルの効果と利用方法を楽しみにしています。MoE 8x7Bの機能は、教育、医療、科学的発見など、さまざまな分野における研究開発の新たな道を開く可能性があります。
費用効率の高いGPT NeoXおよびPythiaモデルの訓練における節約と正確性:AWS Trainiumの活用
大規模言語モデル(またはLLMs)は、日々の会話のトピックとなっていますその迅速な採用は、1億人のユーザーに到達するまでに必要な時間の量で明らかですこれが「Facebookでの4.5年」からわずかな「2ヶ月でのChatGPT」の史上最低になったことが証拠です生成型事前学習トランスフォーマー(GPT)は因果自己回帰の更新を使用します[...]
コンセプトスライダー:LoRAアダプタを使用した拡散モデルの正確な制御
彼らの能力のおかげで、テキストから画像への変換モデルは芸術コミュニティで非常に人気がありますただし、現在のモデル、最先端のフレームワークを含めて、生成された画像の視覚的な概念や属性をコントロールするのは難しく、満足のいく結果を得ることができませんほとんどのモデルはテキストのプロンプトにのみ依存しており、継続的な属性の制御に課題があります[…]
大規模言語モデル、MirrorBERT — モデルを普遍的な単語ベクトルと文エンコーダーに変換する
「BERTのようなモデルが現代の自然言語処理アプリケーションにおいて基本的な役割を果たしていることは秘密ではありません下流のタスクにおける驚異的なパフォーマンスにもかかわらず、これらのモデルの多くは完璧ではありません...」
バイトダンスの研究者が「ImageDream」を紹介:3Dオブジェクト生成のための画像刺激とマルチビューディフュージョンモデルの革新的な導入
諺にあるように、「一枚の画像は千語の価値がある」ということわざは、3D制作に画像を第二の手段として追加することで、テキストだけを使用するシステムに比べて大きな利点をもたらします。画像は主に、言語では部分的または不完全にしか説明できない、詳細で豊かな視覚情報を提供します。例えば、画像はテクスチャ、色、空間的な関係などの細かな特徴を明確かつ即座に表現することができますが、単語の説明では同じレベルの詳細を完全に表現するためには助けが必要であり、非常に長い説明が必要になる場合もあります。システムは実際の視覚的な手がかりを直接参照することができるため、書かれた説明を解釈するよりも、複雑さや主観性に幅広いばらつきがあることがありますが、このビジュアルの特異性はより正確で詳細な3Dモデルの生成に役立ちます。 さらに、視覚的な手段を利用することで、特に言葉で自分のビジョンを表現するのが難しい人々にとって、意図した結果をより簡単かつ直接的に説明することができます。この多重モダリティの方法は、テキストの文脈の深さと視覚データの豊かさを組み合わせることで、より信頼性のある、ユーザーフレンドリーで効果的な3D制作プロセスを提供する幅広い創造的および実用的なアプリケーションに役立ちます。しかし、3Dオブジェクトの開発の代替手段として写真を使用する際には、いくつかの困難が存在します。テキストとは異なり、画像には色、テクスチャ、空間的な関係など、多くの追加要素があり、これらは単一のエンコーダ(CLIPなど)を使用して正しく分析および理解するのが難しくなります。 さらに、オブジェクトの光、形状、自己遮蔽の大きな変化は、不完全またはぼやけた3Dモデルを提供する可能性がある視点合成において、より正確で一貫性のあるものにするために、高度な計算負荷の技術が必要です。画像処理の複雑さにより、視覚情報を効果的にデコードし、多くの視点で一貫した外観を保証するために、研究者はZero123などのさまざまな拡散モデル手法を使用して2Dアイテム画像を3Dモデルに変換してきました。画像のみのシステムの1つの欠点は、合成された視点は素晴らしいように見える一方で、再構築されたモデルは時々ジオメトリの正確さや緻密なテクスチャに関して補完が必要です、特にオブジェクトの背面の視点に関してです。この問題の主な原因は、生成または合成された視点間の大きな幾何学的な不一致です。 その結果、再構築時に非一致のピクセルが平均化され、ぼやけたテクスチャと丸みを帯びたジオメトリが生じます。要するに、画像条件付きの3D生成は、テキスト条件付きの生成に比べてより制限の多い最適化問題です。3Dデータの量が限られているため、正確な特徴を持つ3Dモデルを最適化することはより困難になります。最適化プロセスは訓練分布から逸脱しやすい傾向があります。例えば、訓練データセットには様々な馬のスタイルが含まれている場合、テキストの説明だけから馬を作成すると、詳細なモデルが生成される可能性があります。しかし、画像が特定の毛皮の特徴、形状、テクスチャを指定する場合、新しい視点のテクスチャ作成は教授された分布から容易に逸脱することがあります。 これらの問題に対処するために、ByteDanceの研究チームは本研究でImageDreamを提案します。研究チームは、現在のアーキテクチャに容易に組み込むことができる多階層画像プロンプトコントローラを提案します。具体的には、カノニカルカメラ座標に基づいて、生成された画像はオブジェクトの中央の正面ビューを描写しなければなりません(アイデンティティの回転とゼロの移動を使用します)。これにより、入力画像の差異を3次元への変換プロセスがよりシンプルになります。多階層コントローラによって情報伝達プロセスが合理化され、画像入力から各アーキテクチャブロックへの拡散モデルの導入が指示されます。 図1: たった1枚の写真で、画期的なフレームワークImageDreamはあらゆる角度から高品質な3Dモデルを作成します。以前のSoTAであるMagic123などに比べて、3Dジオメトリの品質を大幅に向上させています。さらに重要なのは、MVDreamと比較して、作成された画像プロンプトからのテキストの優れた画像対応を保持していることです。さまざまな技術を使用して作成されたアイテムの8つのビューが以下に示されており、ImageDreamによって生成されたモデルによって描かれた一致する法線マップが最後の行に表示されています。 MVDreamのような厳格にテキストに基づいたモデルと比較して、ImageDreamは図1に示すように、与えられた画像から正確なジオメトリを持つオブジェクトを生成することで優れています。これにより、ユーザーは画像とテキストの整列を改善するために、よく開発された画像生成モデルを使用することができます。ジオメトリとテクスチャの品質に関しては、ImageDreamは現在の最先端技術(SoTA)のゼロショット単一画像3Dモデル生成器であるMagic123を凌駕しています。ImageDreamは、実験部分での定量評価とユーザーテストを通じた定性的比較を含む、これまでのSoTAの技術を凌駕していることが示されています。
UCバークレーの研究者たちは、LLMCompilerを紹介しました:LLMの並列関数呼び出しパフォーマンスを最適化するLLMコンパイラ
以下は、UCバークレー、ICSI、およびLBNLの研究チームが開発したLLMCompilerというフレームワークです。このフレームワークは、LLMの効率と精度を向上させるために設計されており、マルチファンクションコーリングタスクの遅延と不正確さを解決します。LLMCompilerは、LLMプランナー、タスクフェッチングユニット、エグゼキュータのコンポーネントを通じて関数呼び出しの並列実行を可能にします。 LLMCompilerは、マルチファンクションタスクにおける効率と精度を向上させるLLMのフレームワークです。LLMプランナー、タスクフェッチングユニット、エグゼキュータから構成されるLLMCompilerは、ベンチマーキングにおいてReActやOpenAIの並列関数呼び出し機能よりも優れた性能を発揮し、一貫したレイテンシの高速化と精度の改善を示します。LLAMA-2やOpenAIのGPTモデルのようなオープンソースモデルと互換性があり、LLMの知識の限界や算術スキルなどの制約に対処し、関数呼び出しの実行に最適化されたソリューションを提供します。このフレームワークはオープンソースであり、さらなる研究と開発を容易にします。 LLMの進化により、コンテンツ生成の能力を超えて関数呼び出しの実行が可能になりました。LLMプランナー、タスクフェッチングユニット、エグゼキュータから構成されるLLMCompilerは、関数呼び出しのオーケストレーションを最適化します。ベンチマーキングの結果、ReActやOpenAIの並列関数呼び出しと比較して一貫したレイテンシ、コスト、精度の改善が示されました。 LLMCompilerは、LLMにおける関数呼び出しの並列化を可能にするフレームワークです。LLMプランナー、タスクフェッチングユニット、エグゼキュータから成り立っており、LLMプランナーは実行戦略を策定し、タスクフェッチングユニットはタスクをディスパッチして更新し、エグゼキュータはそれらを並列実行します。LLAMA-2やOpenAIのGPTなどのオープンソースモデルと互換性があり、LLMにおけるマルチファンクション呼び出しタスクを効率的にオーケストレーションするLLMCompilerは、ReActに比べてレイテンシの高速化、コスト削減、精度の改善を実現します。動的なリプランニングをサポートすることで適応的な実行が可能であり、オープンソースのフレームワークはLLMにおけるマルチファンクション呼び出しタスクの効率的なオーケストレーションを提供します。 複雑な依存関係や動的なリプランニングのニーズを含むさまざまなタスクでベンチマークが行われ、LLMCompilerは一貫してReActを上回りました。レイテンシの高速化で最大3.7倍、コスト削減で最大6.7倍、精度の改善で9%の向上を実現しました。Game of 24のベンチマークでは、LLMCompilerはTree-of-Thoughtsに比べて2倍の高速化を達成し、OpenAIの並列関数呼び出し機能を最大1.35倍のレイテンシの向上で上回りました。オープンソースのコードは、さらなる探索と開発を容易にします。 LLMCompilerは、LLMにおける並列関数呼び出しの効率、コスト、精度を大幅に改善する有望なフレームワークです。既存のソリューションを上回り、LLMを使用した大規模タスクの効率的かつ正確な実行の可能性を秘めています。そのオープンソースの性質により、利点を活用したい開発者にとってもアクセス可能です。 LLMに焦点を当てたオペレーティングシステムの観点から、LLMCompilerをさらに探求することが推奨されます。計画と実行のレイテンシを考慮しながら、LLMCompilerによるスピードアップの可能性を調査することが望まれます。LLMCompilerに並列関数呼び出しを組み込むことは、LLMを使用した複雑なタスクの効率的な実行に有望です。LLMCompilerの継続的な開発と探求は、LLMベースのソフトウェアの進展に貢献することができます。
エッジコンピューティング:データ処理と接続性の革命化
エッジコンピューティングは、リアルタイムのアプリケーションを可能にし、中央集権的なクラウドコンピューティングによって引き起こされる課題に対処することで、データ処理を革命化する予定です
物議を醸している:GrokがOpenAIのコードを訓練に使用
Elon Muskの最新の事業は、生成AIベースのチャットボットGrokです。しかし、OpenAIのコードが訓練に使用されているという告発が浮上し、この論争が生じています。この論争は、Elon Musk、OpenAI、そして現在のOpenAIのCEOであるSam Altmanとの複雑な歴史に新たな要素を加えています。 告発が明らかに 最近の主張によれば、Grokは誤ってOpenAIのコードベースで訓練されている可能性があります。この憶測は、ユーザーであるJax WinterbourneがGrokからOpenAIのChatGPTに似た異常な応答を受けたことから燃え上がりました。ユーザーは、xAIがGrokの訓練にOpenAIのコードを利用している可能性に懸念を抱いています。 xAIの説明 告発に対して、xAIと関係のあるIgor Babuschkinは、Grokの訓練に使用された膨大なウェブデータが問題の原因であると説明しました。Babuschkinは、訓練プロセスがChatGPTの出力を誤って取得したことを認めつつも、将来のGrokのバージョンではこの問題が発生しないようにすると保証し、Grokの作成にOpenAIのコードは使用しなかったことを強調しました。 Elon Muskの反論 Twitterの論争に慣れたElon Muskは迅速に告発に反論しました。Muskは、Grokの応答が訓練時の大量のデータ収集によるものであると主張しました。Muskらしいスタイルで「さて、息子よ、このプラットフォームからデータを集めて訓練を行った以上、あなたは知っているはずだ」と反論しました。 Grok vs. ChatGPTの詳細比較 GrokとChatGPTの比較は、それぞれのユニークな特徴を明らかにします。GrokはXプラットフォームを通じたリアルタイムの情報アクセスが特徴であり、最初のChatGPTにはこの能力が欠けていました。しかし、この論争は、Grokの訓練データの出所に関する疑問を浮上させました。 xAIの共同研究と将来の展望 xAIはElon Muskの発案だけでなく、GoogleのDeepMindやMicrosoftからの経験を持つチームによって支えられています。xAIはTeslaや他のさまざまな企業との契約を公にし、Oracleとのクラウド活用のための契約が最近明らかになり、xAIがAI技術の進歩に対する取り組みを強調しています。 私たちの意見 これらの告発と反論の中で、ユーザーはAIの開発の複雑さを理解する必要があります。Grokの訓練データに関する論争は懸念すべきですが、それは同時にインターネットの広大な領域におけるデータの純粋性を保証するための課題を浮き彫りにしています。技術の進化とともに、AI開発者はこのような問題に迅速に対処し修正することが極めて重要になってきます。
Find the right Blockchain Investment for you
Web 3.0 is coming, whether buy Coins, NFTs or just Coding, everyone can participate.