Learn more about Search Results L - Page 8
- You may be interested
- データ契約の裏側:消費者の責任の目覚め
- 「生成型人工知能の新たな倫理的意味合い」
- プロンプトエンジニアリング:検索強化生...
- ハッピーな1周年 🤗 ディフューザーズ!
- 「月光スタジオのAIパワード受付アバター...
- 「Pythonによる水質EDAと水質の適性分析」
- Adobe Illustratorの「Generative Recolor...
- データオブザーバビリティの先駆け:デー...
- 「無人運転車は子供や肌の色の濃い人を見...
- 「Matplotlibを使用したプロットのスタイ...
- 「23andMeにおける複数の個人情報漏洩」
- 人間のデータなしでの堅牢なリアルタイム...
- 効率化の解除:Amazon SageMaker Pipeline...
- Pythonのスタックの実装:関数、メソッド...
- 『検索増強生成(RAG)の評価に向けた3ス...
「vLLMの解読:言語モデル推論をスーパーチャージする戦略」
イントロダクション 大規模言語モデル(LLM)は、コンピュータとの対話方法を革新しました。しかし、これらのモデルを本番環境に展開することは、メモリ消費量と計算コストの高さのために課題となることがあります。高速なLLM推論とサービングのためのオープンソースライブラリであるvLLMは、PagedAttentionと呼ばれる新しいアテンションアルゴリズムと連携して、これらの課題に対処します。このアルゴリズムは効果的にアテンションのキーと値を管理し、従来のLLMサービング方法よりも高いスループットと低いメモリ使用量を実現します。 学習目標 この記事では、以下の内容について学びます: LLM推論の課題と従来のアプローチの制約を理解する。 vLLMとは何か、そしてどのように機能するのか理解する。 vLLMを使用したLLM推論のメリット。 vLLMのPagedAttentionアルゴリズムがこれらの課題を克服する方法を発見する。 vLLMを既存のワークフローに統合する方法を知る。 この記事はData Science Blogathonの一環として公開されました。 LLM推論の課題 LLMは、テキスト生成、要約、言語翻訳などのタスクでその価値を示しています。しかし、従来のLLM推論手法でこれらのLLMを展開することはいくつかの制約を抱えています: 大きなメモリフットプリント:LLMは、パラメータや中間アクティベーション(特にアテンションレイヤーからのキーと値のパラメータ)を保存するために大量のメモリを必要とし、リソースに制約のある環境での展開が困難です。 スループットの限定:従来の実装では、大量の同時推論リクエストを処理するのが難しく、スケーラビリティと応答性が低下します。これは、大規模言語モデルが本番サーバーで実行され、GPUとの効果的な連携が行えない影響を受けます。 計算コスト:LLM推論における行列計算の負荷は、特に大規模モデルでは高額になることがあります。高いメモリ使用量と低いスループットに加えて、これによりさらにコストがかかります。 vLLMとは何か vLLMは高スループットかつメモリ効率の良いLLMサービングエンジンです。これは、PagedAttentionと呼ばれる新しいアテンションアルゴリズムと連携して、アテンションのキーと値をより小さな管理しやすいチャンクに分割することで効果的に管理します。このアプローチにより、vLLMのメモリフットプリントが削減され、従来のLLMサービング手法と比べて大きなスループットを実現することができます。テストでは、vLLMは従来のHuggingFaceサービングよりも24倍、HuggingFaceテキスト生成インファレンス(TGI)よりも2〜5倍高速になりました。また、連続的なバッチ処理とCUDAカーネルの最適化により、インファレンスプロセスをさらに洗練させています。 vLLMのメリット vLLMは従来のLLMサービング手法よりもいくつかの利点を提供します: 高いスループット:vLLMは、最も人気のあるLLMライブラリであるHuggingFace Transformersよりも最大24倍の高いスループットを実現できます。これにより、より少ないリソースでより多くのユーザーに対応することができます。 低いメモリ使用量:vLLMは、従来のLLMサービング手法と比べて非常に少ないメモリを必要とするため、ソフトハードウェアのプラットフォームに展開する準備ができています。…
「2024年の包括的なNLP学習パス」
紹介 2023年は、バード、ジェミニ、そしてChatGPTのような強力な言語モデルの台頭により、自然言語処理(NLP)で画期的な進展がありました。これらの驚異は、単なるAIの進化の見事な快挙だけでなく、機械が前例のない正確さと流暢さで人間の言語を理解し生成できる新たな時代の始まりを意味しています。パーソナライズされたチャットボットからリアルタイム翻訳まで、NLPはテクノロジーと私たちとのインタラクションの方法を革新しています。これらのアプリケーションがますます普及するにつれて、NLPの習得は単なる技能ではなく、必要不可欠なものとなります。 これを念頭に置いて、2024年にNLPの専門家になるための6ヶ月間のステップバイステップの学習パスを作成しました。このNLPの学習パスでは、事前に知っておく必要のある事項から始めます。その後、月ごとに学習と実践が必要な内容を具体的にご案内いたします。 さあ、始めましょう! 2024年の包括的なNLP学習パス概要 Natural Language Processing (NLP)に興味はありますか?それなら、この学習パスがおすすめです!初心者でもわかりやすいように設計されており、6ヶ月でNLPの基礎を学ぶことができます。 何を学ぶことができますか? Month 1: Pythonと基本的な機械学習のスタート。NLPのための統計、確率、およびディープラーニングの概念を学びましょう。 Month 2 & 3: テキスト処理技術、単語埋め込み、PyTorchやTensorFlowなどのディープラーニングフレームワークのマスター。テキスト要約や機械翻訳の最初のプロジェクトを作成しましょう。 Month 4 & 5: BERTやGPT-3などの強力な事前学習モデルを発見しましょう。転移学習、プロンプトエンジニアリング、ファインチューニングの技術を学びましょう。大規模な言語モデルでアプリケーションを作成しましょう。 Month…
トゥギャザーアイは、ShortおよびLongコンテキストの評価で最高のオープンソーストランスフォーマーに対抗する、StripedHyena-7Bという代替人工知能モデルを紹介します
AIと共に、シーケンスモデリングアーキテクチャへの大きな貢献を果たし、StripedHyenaモデルを導入しました。従来のトランスフォーマーに代わる選択肢を提供することで、計算効率とパフォーマンスを向上させることで、このフィールドを革新しました。 このリリースには、ベースモデルのStripedHyena-Hessian-7B(SH 7B)とチャットモデルのStripedHyena-Nous-7B(SH-N 7B)が含まれています。StripedHyenaは、昨年作成されたH3、Hyena、HyenaDNA、およびMonarch Mixerといった効果的なシーケンスモデリングアーキテクチャの学習からの重要な知見に基づいています。 研究者は、このモデルが長いシーケンスをトレーニング、ファインチューニング、および生成する際に、高速かつメモリ効率が向上していることを強調しています。StripedHyenaは、ゲート付き畳み込みとアテンションを組み合わせたハイエナオペレータと呼ばれるものによって、ハイブリッド技術を使用しています。また、このモデルは、強力なトランスフォーマーベースモデルと競合する初めての代替アーキテクチャです。OpenLLMリーダーボードのタスクを含むショートコンテキストのタスクでは、StripedHyenaはLlama-2 7B、Yi 7B、およびRWKV 14Bなどの最強のトランスフォーマーの代替アーキテクチャを上回っています。 このモデルは、ショートコンテキストのタスクと長いプロンプトの処理において、さまざまなベンチマークで評価されました。Project Gutenbergの書籍によるPerplexityスケーリング実験では、Perplexityが32kで飽和するか、このポイントを超えて減少することから、モデルがより長いプロンプトから情報を吸収する能力を示しています。 StripedHyenaは、アテンションとゲート付き畳み込みを組み合わせたユニークなハイブリッド構造によって効率を実現しています。研究者は、このハイブリッドデザインを最適化するために革新的な接ぎ木技術を使用したと述べており、トレーニング中にアーキテクチャの変更を可能にしました。 研究者は、StripedHyenaの重要な利点の1つは、トレーニング、ファインチューニング、および長いシーケンスの生成など、さまざまなタスクにおける高速性とメモリ効率の向上です。最適化されたTransformerベースラインモデルと比較して、StripedHyenaはFlashAttention v2とカスタムカーネルを使用して、32k、64k、および128kの行でエンドツーエンドトレーニングにおいて30%、50%、および100%以上優れています。 将来、研究者はStripedHyenaモデルでいくつかの領域で大きな進歩を遂げたいと考えています。彼らは、長いコンテキストを処理できるより大きなモデルを作成し、情報理解の限界を拡大したいと考えています。さらに、テキストや画像などのさまざまなソースからデータを処理して理解できるようにすることで、モデルの適応性を高めるためのマルチモーダルサポートを取り入れたいとしています。 最後に、StripedHyenaモデルは、ゲート付き畳み込みなどの追加計算を導入することによって、Transformerモデルに対して改善の余地を持っています。このアプローチは、線形アテンションに触発されたものであり、H3やMultiHyenaなどのアーキテクチャにおいて効果が証明されており、トレーニング中のモデルの品質を向上させ、推論効率に利点を提供します。
「このAI研究は、グラフ上の大規模言語モデル(LLM)について包括的な概要を共有します」
よく知られたLarge Language Models(LLMs)であるGPTやBERT、PaLM、LLaMAは、自然言語処理(NLP)と自然言語生成(NLG)においていくつかの大変な進歩をもたらしました。これらのモデルは大規模なテキストコーパスで事前学習され、質問応答やコンテンツ生成、要約など、複数のタスクで驚異的なパフォーマンスを発揮しています。 LLMsは平文のテキストを扱うことができることが証明されていますが、テキストデータがグラフ形式の構造情報とリンクされたアプリケーションを扱う必要性がますます高まっています。研究者たちは、LLMsの良好なテキストベースの推論力を活用して、マッチングサブグラフ、最短パス、接続推論などの基本的なグラフの推論タスクにLLMsをどのように適用できるかを研究しています。LLMsの統合に関連付けられているグラフベースのアプリケーションには、純粋なグラフ、テキスト豊かなグラフ、テキスト対応グラフの3つのタイプがあります。これらの機能とGNNとの相互作用に応じて、LLMsをタスク予測器、GNNの特徴エンコーダー、またはGNNとのアライナーとして扱うテクニックがあります。 LLMsはグラフベースのアプリケーションでますます人気が高まっていますが、LLMsとグラフの相互作用を調査する研究は非常に少ないです。最近の研究では、研究チームが大規模な言語モデルとグラフの統合に関連した状況と方法の体系的な概要を提案しています。目的は、テキスト豊かなグラフ、テキスト対応グラフ、純粋なグラフの3つの主要なカテゴリに可能な状況を整理することです。チームは、アライナー、エンコーダー、または予測器としてLLMsを使用する具体的な方法を共有しています。各戦略には利点と欠点があり、リリースされた研究の目的はこれらのさまざまなアプローチを対比することです。 チームは、LLMsをグラフ関連の活動で使用する利点を示すことで、これらの技術の実用的な応用に重点を置いています。チームは、これらの方法の適用と評価を支援するためのベンチマークデータセットとオープンソーススクリプトに関する情報を共有しています。結果は、この急速に発展している分野でのさらなる研究と創造性の必要性を強調して、可能な将来の研究トピックを概説しています。 チームは、彼らの主な貢献を以下のようにまとめています。 チームは、言語モデルがグラフで使用される状況を体系的に分類することで貢献を果たしました。これらのシナリオは、テキスト豊かな、テキスト対応、純粋なグラフの3つのカテゴリに整理されています。この分類法は、さまざまな設定を理解するための枠組みを提供します。 言語モデルは、グラフのアプローチを用いて詳細に分析されました。評価は、さまざまなグラフ状況の代表的なモデルをまとめたもので、最も徹底的なものとなっています。 言語モデルをグラフに関連する研究に関連して、実世界の応用、オープンソースのコードベース、ベンチマークデータセットなど、多くの資料がキュレーションされています。 言語モデルをグラフでのさらなる研究のための6つの可能な方向が提案されており、基本的なアイデアを掘り下げています。
「メタは、トレーニングにLLaMAモデルを使用するために著作権のある本を使用し、著者たちは訴訟を起こしています」
Meta Platforms、以前のFacebookとして知られる企業が、コメディアンのサラ・シルバーマンやピュリッツァー賞受賞者のマイケル・シャボンを含む有名人がテックジャイアントに反対して法的紛争に巻き込まれています。告発は、Metaが著作権付きの書籍を利用して、その法的チームの警告にもかかわらず、人工知能モデルを訓練したことを示唆し、コンテンツ制作者と企業との間で争いを引き起こしました。このReutersが最初に報じた出来事は、MetaとそのAIの進歩において燃料となるとされる作品の制作者との衝突を明らかにしています。 告発と法的混乱 Metaは数千冊の違法な書籍をAIモデルのトレーニングに使用したとの告発に直面し、法的な挑戦に直面しています。最近の裁判所の提出によって明るみに出たこの著作権侵害の訴訟は、有名な著者とテック大手の間の対立を浮き彫りにしました。Metaの法的チームからの警告にもかかわらず、Metaはこの議論のあるデータセットの利用を続け、法的な泥沼をさらに悪化させました。 制作者からの結束した反対 コメディアンのサラ・シルバーマンやピュリッツァー賞受賞者のマイケル・シャボンを含む他の有名な著者が、Metaが違法に彼らの作品を使用したと主張しています。これは人工知能言語モデルであるLlamaを訓練するためです。Reutersによると、最新の法的な提出にはこれらの主張が総括されており、知的財産の倫理的な使用についての疑問を提起しています。 Discordログと法的な議論 法的提出の重要な一部として、Meta関連の研究者がDiscordサーバーで物議を醸すデータセットの取得について話しているチャットログが含まれています。これらのログは、Metaが書籍ファイルの使用に関連する潜在的な著作権侵害に関する認識を持っていることを示す可能性のある証拠となります。この会話は、データセットの利用の許容性についてのMeta内での内部的な議論を明らかにしています。これにより、この問題に関するMetaの明らかな法的な不確実性への認識が浮き彫りにされています。 Metaが議論のあるデータセットを訓練に使用したとされるLlama大規模言語モデルのリリースは、コンテンツ制作者コミュニティ内で懸念を引き起こしました。テック企業は、著作権保護された資料の無許可使用を理由にしたAIの進化に関する訴訟にますます直面しています。これらの法的な戦いの結果は、Reutersが報じたように、データを必要とするモデルの構築におけるコストと透明性に重大な影響を与える可能性があります。 私たちの意見 技術の進歩と知的財産権の交差点を進む中で、Metaは複雑な法的闘争の最前線に立っています。著作権付きの書籍の許可なく利用するという疑惑は、倫理的な問題を提起します。テック大手は、コンテンツ制作者の知的貢献を尊重する責任があります。法的手続きが進むにつれ、テック業界は潜在的な前例を待っています。これらはAIの開発の将来と技術と創造性の関係を形作る可能性があります。
「ゼロから始めるLoRAの実装」
「LoRA(ローラ)は、既存の言語モデルを微調整するための効率的で軽量な方法を提供する、Low-Rank AdaptationまたはLow-Rank Adaptorsの頭字語ですこれには、BERTのようなマスクされた言語モデルも含まれます...」
EAGLEをご紹介します:圧縮に基づく高速LLMデコードのための新しい機械学習手法
ChatGPTのような大規模言語モデル(LLM)は、さまざまな言語関連タスクでその手腕を発揮し、自然言語処理を革命化しました。しかし、これらのモデルは、各トークンの処理に完全な順方向のパスを必要とする自己回帰デコーディングプロセスに取り組んでいます。この計算のボトルネックは、パラメータセットが広範囲であるLLMにおいて特に顕著であり、リアルタイムアプリケーションの妨げとなり、制約のあるGPUの機能を持つユーザーに課題を与えます。 Vector Institute、ウォータールー大学、北京大学の研究者チームは、LLMデコーディングに固有の課題に対処するためにEAGLE(Extrapolation Algorithm for Greater Language-Model Efficiency)を導入しました。MedusaやLookaheadなどの従来の方法とは異なり、EAGLEは、第2トップレイヤーの文脈特徴ベクトルの外挿に焦点を当てる独自のアプローチを取っています。前例のない効率的な次の特徴ベクトルの予測を目指すEAGLEは、テキスト生成を大幅に加速する画期的な成果を提供します。 EAGLEの方法論の中核には、FeatExtrapolatorと呼ばれる軽量プラグインの展開があります。このプラグインは、元のLLMの凍結された埋め込み層と連携してトレーニングされ、第2トップレイヤーの現在の特徴シーケンスに基づいて次の特徴を予測します。EAGLEの理論的な基盤は、時間の経過に伴う特徴ベクトルの圧縮性にあり、トークン生成の迅速化の道筋をつけます。EAGLEの優れたパフォーマンスメトリックには注目です。通常のデコーディングと比較して3倍の速度向上を誇り、Lookaheadの速度を2倍にし、Medusaと比較して1.6倍の加速を実現します。もっとも重要なのは、生成されたテキストの分布の保存を確保しつつ、通常のデコーディングとの一貫性を保つことです。 https://sites.google.com/view/eagle-llm EAGLEの能力は、その加速能力を超えます。標準的なGPUでのトレーニングとテストが可能であり、より広いユーザーベースにアクセスできるようになっています。さまざまな並列技術とのシームレスな統合は、効率的な言語モデルデコーディングのツールキットへの価値ある追加として、その応用性を高めます。 FeatExtrapolatorへの依存度を考慮すると、EAGLEの方法論は軽量ですがパワフルなツールであり、元のLLMの凍結された埋め込み層と協力しています。この協力によって、第2トップレイヤーの現在の特徴シーケンスに基づいて次の特徴を予測することができます。EAGLEの理論的な基盤は、時間の経過に伴う特徴ベクトルの圧縮性に根ざしており、より効率的なトークン生成プロセスを実現します。 https://sites.google.com/view/eagle-llm 従来のデコーディング方法では、各トークンに対して完全な順方向のパスが必要であるのに対し、EAGLEの特徴レベルの外挿はこの課題を克服する革新的な方法を提供します。研究チームの理論的な探求は、テキスト生成を大幅に加速するだけでなく、生成されたテキストの分布の品質と一貫性を維持するために重要な側面も保持しています。 https://sites.google.com/view/eagle-llm 結論として、EAGLEはLLMデコーディングの長年の非効率性に対処するための希望の光として浮かび上がっています。EAGLEの背後にある研究チームは、自己回帰生成の核心問題に巧妙に取り組み、テキスト生成を劇的に加速するだけでなく、配布の一貫性も保持する方法を導入しました。リアルタイム自然言語処理が高い需要を持つ時代において、EAGLEの革新的なアプローチは、先駆者としての地位を確立し、先端の能力と実際の現実世界の応用との間の溝を埋める役割を果たしています。
ポイントクラウド用のセグメント化ガイド「Segment Anything 3D for Point Clouds Complete Guide (SAM 3D)」
「セマンティックセグメンテーションアプリケーションを3Dポイントクラウドに適用し、Segment Anything Model(SAM)とPythonで構築しますボーナス:2Dから3Dへのプロジェクションのためのコードも提供します」
Amazon SageMaker JumpStartを使用してLLMと対話するためのWeb UIを作成します
ChatGPTの発売および生成AIの人気の上昇は、AWS上で新しい製品やサービスを作成するためにこの技術をどのように利用できるかについての好奇心を持つ顧客たちの想像力を捉えていますこれにより、より対話的なエンタープライズチャットボットなどの製品やサービスを作成する方法を紹介しますこの記事では、Web UIを作成する方法について説明します
「陪審団がGoogleのアプリストアが反競争的な法律を破ったと判断」
「画期的な判決で、エピックゲームズが検索大手に対する訴訟で勝利しました」
Find the right Blockchain Investment for you
Web 3.0 is coming, whether buy Coins, NFTs or just Coding, everyone can participate.