Learn more about Search Results 行われます

Google AIは、『AltUp(Alternating Updates)』というアートフィシャルインテリジェンスの手法を導入しましたこれは、トランスフォーマーネットワークのスケールの拡大を利用するための手法であり、計算コストを増やさずに行われます

ディープラーニングにおいて、トランスフォーマーニューラルネットワークは、自然言語処理やコンピュータビジョン、ロボティクス、自動運転などの新興アプリケーションを含め、さまざまなドメインでの有効性に対して注目を集めています。ただし、パフォーマンスの向上に伴い、これらのモデルの規模がますます拡大することで、計算コストと推論遅延が大幅に増加します。大規模なモデルの利点を享受する際に、実用上の計算負荷をもたらさないような困難が存在します。 特にトランスフォーマーモデルを含むディープラーニングモデルの現在の状況は、さまざまな領域で著しい進歩を示しています。ただし、増加した計算要件により、これらのモデルのスケーラビリティを向上させる必要がある場合があります。従来の取り組みは、Switch Transformer、Expert Choice、V-MoEなど、スパース混合専門家モデルによって示されるように、ネットワークパラメータの効率的なスケーリングや入力あたりの計算の増加を軽減することに主に焦点を当ててきました。ただし、トークン表現の次元自体のスケーリングに関する研究上の課題が存在します。ここで、この課題を解決するために導入された新しい方法であるAltUpが登場します。 AltUpは、計算のオーバーヘッドを増やさずにトークン表現を拡張する方法を提供することで際立っています。この方法では、拡張された表現ベクトルを等しいサイズのブロックに分割し、各層で1つのブロックのみを処理します。AltUpの有効性の核心は、処理されていないブロックの推論を可能にする予測-訂正メカニズムにあります。直接的な拡張に伴う計算量の二次的な増加を回避することで、モデルの次元を維持しながら、AltUpは、より大きなTransformerネットワークによってもたらされる計算上の課題に対する有望な解決策として浮上しています。 AltUpのメカニズムは、トークン埋め込みの複雑さに深く入り込み、計算の複雑さを増やさずにトークン表現を拡張する方法を検討しています。この方法は以下の手順で行われます: ブロックの1x幅トランスフォーマーレイヤーを呼び出します。 「アクティブ」ブロックと呼ばれます。 同時に軽量な予測子を使用します。 この予測子は、すべての入力ブロックの重み付き組み合わせを計算し、予測値と活性化されたブロックの計算値は、軽量な修正子を介して修正されます。この修正メカニズムにより、非活性なブロックは活性化されたブロックに基づいて更新されます。重要なのは、予測と修正のステップの両方が、通常のトランスフォーマーレイヤーよりもはるかに高速なベクトルの加算と乗算を必要としないということです。 T5モデルに対するAltUpの評価は、同じ精度で密なモデルを上回る一貫した能力を示しています。特に、AltUpで拡張されたT5ラージモデルは、GLUE、SuperGLUE、SQuAD、Trivia-QAの各ベンチマークで、それぞれ27%、39%、87%、29%の著しいスピードアップを実現しています。AltUpの相対的な性能向上は、モデルのサイズが大きくなるにつれてより顕著になり、スケーラビリティと向上した効果を強調しています。 AltUpは、Transformerニューラルネットワークの効率的なスケーリングアップの長年の課題に対する注目すべき解決策として浮上しています。計算コストの比例的な増加を伴わずにトークン表現を拡張する能力は、さまざまなアプリケーションにおいて重要な約束を持っています。AltUpの革新的なアプローチは、分割と予測-訂正メカニズムを特徴とし、大きなモデルの利点を活用するための現実的な方法を提供します。計算要求に適しています。 研究者たちによるAltUpの拡張であるRecycled-AltUpは、提案された手法の適応性をさらに示しています。初期トークンの埋め込みを広げる代わりに、再現埋め込みによってRecycled-AltUpは、認識可能な遅延を引き起こすことなく、事前学習パフォーマンスの厳格な改善を示しています。AltUpとMoEのような他のテクニックとのシームレスな統合を伴うこの二重アプローチは、その多様性を具現化し、トレーニングとモデルのパフォーマンスのダイナミクスを探求するための将来的な研究の可能性を開いています。 AltUpは、Transformerネットワークの効率的なスケーリングの追求における画期的なものであり、モデルのサイズと計算効率のトレードオフに対する魅力的な解決策を提供しています。この論文で述べられているように、研究チームの貢献は、大規模なTransformerモデルをさまざまな応用によりアクセス可能で実用的なものにするための重要な一歩です。

バイトダンスAI研究がStemGenを紹介:音楽の文脈を聞いて適切に反応するためにトレーニングされたエンドツーエンドの音楽生成ディープラーニングモデル

音楽生成は、既存の音楽に存在するパターンと構造を模倣するためにモデルを訓練することで行われるディープラーニングの一環です。RNN、LSTMネットワーク、トランスフォーマーモデルなど、ディープラーニングの技術が一般的に使用されます。この研究では、音楽のコンテキストに応じて反応する非自己回帰型のトランスフォーマーベースのモデルを使用して音楽音声を生成する革新的なアプローチを探求しています。従来のモデルが抽象的な調整に頼っているのに対し、この新しいパラダイムは聞くことと反応することを重視しています。この研究では、フィールドの最新の進歩を取り入れ、アーキテクチャの改良について議論しています。 SAMIと字節跳動社の研究者は、音楽コンテキストに反応する非自己回帰型のトランスフォーマーベースのモデルを紹介し、MusicGenモデルのための公開されたエンコードチェックポイントを活用しています。評価には、Frechet Audio Distance(FAD)やMusic Information Retrieval Descriptor Distance(MIRDD)などの標準的な指標や音楽情報検索ディスクリプタのアプローチが使用されています。その結果、このモデルは客観的な指標と主観的MOSテストを通じて、競争力のある音声品質と強固な音楽のコンテキストに対する整合性を示しています。 この研究は、画像と言語処理からの技術を借用して、ディープラーニングを通じたエンドツーエンドの音楽音声生成の最新の進展を強調しています。音楽作曲におけるステムの整合性の課題を重視し、抽象的な調整に頼る従来のモデルに対する批判を行っています。音楽のコンテキストに対して反応するためのモデルに非自己回帰型のトランスフォーマーベースのアーキテクチャを使用するトレーニングパラダイムを提案しています。モデルの評価には、客観的な指標、音楽情報検索ディスクリプタ、および聴取テストが必要です。 この手法では、音楽生成に非自己回帰型のトランスフォーマーベースのモデルを使用し、別個の音声エンコーディングモデルで残差ベクトル量子化を組み合わせています。複数の音声チャンネルを連結された埋め込みを介して単一のシーケンス要素に組み合わせます。トレーニングにはマスキング手法が使用され、強化された音声コンテキストの整合性を向上させるためにトークンサンプリング中にクラシファイアフリーガイダンスが使用されます。フレーシェ音声距離や音楽情報検索ディスクリプタ距離などの客観的な指標によってモデルのパフォーマンスが評価されます。生成されたサンプルを実際のステムと比較することで評価が行われます。 この研究では、標準的な指標や音楽情報検索ディスクリプタアプローチ(FADやMIRDDなど)を使用して生成されたモデルを評価しています。実際のステムとの比較により、モデルは最先端のテキスト条件付きモデルと同等の音声品質を達成し、音楽のコンテキストに強い音楽的な整合性を示しています。音楽のトレーニングを受けた参加者を対象としたMean Opinion Scoreテストは、このモデルが現実的な音楽の結果を生成する能力を確認しています。生成されたステムと実際のステムの分布整合性を評価するMIRDDは、音楽の一貫性と整合性の尺度となります。 まとめると、行われた研究は以下のように要約できます: この研究では、音楽のコンテキストに応答できる生成モデルの新しいトレーニングアプローチを提案しています。 このアプローチは、トランスフォーマーバックボーンを持つ非自己回帰言語モデルと、未検証の2つの改良点(マルチソースのクラシファイアフリーガイダンスと反復デコーディング中の因果バイアス)を導入しています。 これらのモデルは、オープンソースおよび独自のデータセットでトレーニングすることで最先端の音声品質を達成しています。 標準的な指標や音楽情報検索ディスクリプタのアプローチによって最先端の音声品質が検証されています。 Mean Opinion Scoreテストは、モデルが現実的な音楽の結果を生成する能力を確認しています。

「2023年、オープンLLMの年」

2023年には、大型言語モデル(Large Language Models、LLMs)への公衆の関心が急増しました。これにより、多くの人々がLLMsの定義と可能性を理解し始めたため、オープンソースとクローズドソースの議論も広範な聴衆に届くようになりました。Hugging Faceでは、オープンモデルに大いに興味を持っており、オープンモデルは研究の再現性を可能にし、コミュニティがAIモデルの開発に参加できるようにし、モデルのバイアスや制約をより簡単に評価できるようにし、チェックポイントの再利用によってフィールド全体の炭素排出量を低減するなど、多くの利点があります(その他の利点もあります)。 では、オープンLLMsの今年を振り返ってみましょう! 文章が長くなりすぎないようにするために、コードモデルには触れません。 Pretrained Large Language Modelの作り方 まず、大型言語モデルはどのようにして作られるのでしょうか?(もし既に知っている場合は、このセクションをスキップしてもかまいません) モデルのアーキテクチャ(コード)は、特定の実装と数学的な形状を示しています。モデルのすべてのパラメータと、それらが入力とどのように相互作用するかがリストとして表されます。現時点では、大部分の高性能なLLMsは「デコーダーのみ」トランスフォーマーアーキテクチャのバリエーションです(詳細は元のトランスフォーマーペーパーをご覧ください)。訓練データセットには、モデルが訓練された(つまり、パラメータが学習された)すべての例と文書が含まれています。したがって、具体的には学習されたパターンが含まれます。ほとんどの場合、これらの文書にはテキストが含まれており、自然言語(例:フランス語、英語、中国語)、プログラミング言語(例:Python、C)またはテキストとして表現できる構造化データ(例:MarkdownやLaTeXの表、方程式など)のいずれかです。トークナイザは、訓練データセットからテキストを数値に変換する方法を定義します(モデルは数学的な関数であり、したがって入力として数値が必要です)。トークン化は、テキストを「トークン」と呼ばれるサブユニットに変換することによって行われます(トークン化方法によっては単語、サブワード、または文字になる場合があります)。トークナイザの語彙サイズは、トークナイザが知っている異なるトークンの数を示しますが、一般的には32kから200kの間です。データセットのサイズは、これらの個々の「原子論的」単位のシーケンスに分割された後のトークンの数としてよく測定されます。最近のデータセットのサイズは、数千億から数兆のトークンに及ぶことがあります!訓練ハイパーパラメータは、モデルの訓練方法を定義します。新しい例ごとにパラメータをどれだけ変更すべきですか?モデルの更新速度はどのくらいですか? これらのパラメータが選択されたら、モデルを訓練するためには1)大量の計算パワーが必要であり、2)有能な(そして優しい)人々が訓練を実行し監視する必要があります。訓練自体は、アーキテクチャのインスタンス化(訓練用のハードウェア上での行列の作成)および上記のハイパーパラメータを使用して訓練データセット上の訓練アルゴリズムの実行からなります。その結果、モデルの重みが得られます。これらは学習後のモデルパラメータであり、オープンな事前学習モデルへのアクセスに関して多くの人々が話す内容です。これらの重みは、推論(つまり、新しい入力の予測やテキストの生成など)に使用することができます。 事前学習済みLLMsは、重みが公開されると特定のタスクに特化または適応することもあります。それらは、「ファインチューニング」と呼ばれるプロセスを介して、ユースケースやアプリケーションの出発点として使用されます。ファインチューニングでは、異なる(通常はより専門化された小規模な)データセット上でモデルに追加の訓練ステップを適用して、特定のアプリケーションに最適化します。このステップには、計算パワーのコストがかかりますが、モデルをゼロから訓練するよりも財政的および環境的にはるかにコストがかかりません。これは、高品質のオープンソースの事前学習モデルが非常に興味深い理由の一つです。コミュニティが限られたコンピューティング予算しか利用できない場合でも、自由に使用し、拡張することができます。 2022年 – サイズの競争からデータの競争へ 2023年以前、コミュニティで利用可能だったオープンモデルはありましたか? 2022年初頭まで、機械学習のトレンドは、モデルが大きければ(つまり、パラメータが多ければ)、性能が良くなるというものでした。特に、特定のサイズの閾値を超えるモデルは能力が向上するという考えがあり、これらの概念はemergent abilitiesとscaling lawsと呼ばれました。2022年に公開されたオープンソースの事前学習モデルは、主にこのパラダイムに従っていました。 BLOOM(BigScience Large Open-science…

マンバ:シーケンスモデリングの再定義とトランスフォーマーアーキテクチャの超越

「マンバの画期的なシーケンスモデリング手法を探求し、効率的な処理と先進的な状態空間メカニズムにより、従来のモデルを超えてくださいマンバとともに、AIの未来に飛び込んでください」

「2024年のデータエンジニアリング&AI Xイノベーションサミットを発表します」

「私たちが4月にボストンで開催されるODSC Eastと共に開催される2つのイベントを発表できることは、もっと興奮しませんそれは、データエンジニアリングサミットとAi Xイノベーションサミットですこれら2つの共同開催イベントは、これらの分野を形作るトピックとトレンドにさらに深く立ち入る機会を提供しています学んでください...」

「5つ星アプリを構築する:AIと自動化を利用したモバイルテストの向上」

ソフトウェア開発チームは、高品質なモバイルアプリ体験を提供するために、強力で低コストのツールが必要ですAIと自動化は解決策を提供します

高度なRAGテクニック:イラスト入り概要

この投稿の目標は、利用可能なRAGアルゴリズムとテクニックの概要と説明をすることなので、コードの実装の詳細には立ち入らず、参照のみ行い、それについては放置します

「アウトライア検出手法の比較」

外れ値検出は、与えられたデータセット内の異常値(珍しい観測値)を特定するための教師なしの機械学習タスクですこのタスクは、私たちの利用可能なデータが多い現実世界のケースで役立ちます…

スタンフォードの研究者たちはPLATOを発表しました:知識グラフに拡張された正則化を用いた高次元、低サンプルの機械学習の過適合に取り組むための斬新なAIアプローチ

ナレッジグラフ(KG)は、ノードとエッジとして情報を格納するグラフベースのデータベースです。一方、マルチレイヤーパーセプトロン(MLP)は、機械学習で使用されるニューラルネットワークの一種です。MLPは、複数の層に配置された相互接続されたノードで構成されています。各ノードは前の層からの入力を受け取り、次の層に出力を送信します。 スタンフォード大学の研究者たちは、KGを活用して補助的なドメイン情報を提供するための新しい機械学習モデルであるPLATOを紹介しました。 PLATOは、KG内の類似したノードがMLPの最初の層の重みベクトルを持つことを保証する帰納的なバイアスを導入することで、MLPを正則化します。この方法は、多くの次元を持つ表形式のデータセットを含むタブラーデータがサンプルよりも多い場合に機械学習モデルが助けが必要な課題に対処します。 PLATOは、特徴の数よりもデータサンプルの数が遥かに多い表形式のデータセットの未開拓シナリオに対処し、NODEやタブラートランスフォーマーなどの他の深層タブラーモデル、およびPCAやLASSOなどの従来のアプローチと異なり、正則化のためのKGを導入します。グラフ正則化方法とは異なり、PLATOはKG内の特徴ノードと非特徴ノードを組み合わせています。これにより、KGを事前情報として異なる表形式のデータセットでの予測に対してMLPモデルの重みを推定します。 機械学習モデルはデータ豊富な環境で優れたパフォーマンスを発揮することが多い一方で、特徴の数がサンプルの数を大幅に上回る表形式のデータセットでは支援が必要です。この差異は特に科学データセットにおいて顕著であり、モデルのパフォーマンスが制限されます。既存の表形式の深層学習手法は主に例が特徴よりも多いシナリオに焦点を当てており、特徴がサンプルよりも多いローデータ領域では従来の統計手法が主流です。これを解決するために、MLPを正則化するための補助KGを活用するPLATOは、高次元の特徴と限られたモデルを持つデータセットにおけるディープラーニングを可能にし、優れたパフォーマンスを発揮します。 補助KGを活用することで、PLATOは各入力特徴をKGノードと関連付け、ノードの類似性に基づいてMLPの最初の層の重みベクトルを推定します。この手法は、メッセージパッシングの複数のラウンドを用いて特徴の埋め込みを洗練します。PLATOはKG内の浅いノード埋め込み手法(TransE、DistMult、ComplEx)において一貫したパフォーマンスを示す消失実験を行います。この革新的な手法は、データに乏しい表形式の設定におけるディープラーニングモデルの改善の可能性を提供します。 高次元の特徴と限られたサンプルを持つ表形式のデータに対するPLATOは、6つのデータセット全体で13の最先端ベースラインを最大10.19%上回ります。パフォーマンスの評価は、モデルごとに500の設定でランダムサーチを行い、予測値と実際の値のピアソン相関の平均と標準偏差を報告して行われます。結果は、PLATOの効果を裏付け、データに乏しい状況での堅牢なパフォーマンスを達成するための補助KGの活用を示しています。多様なベースラインに対する比較分析は、PLATOの優位性を明確にし、表形式のデータセットの予測の向上における有効性を立証しています。 まとめると、以下のポイントで研究内容を要約することができます: PLATOは表形式のデータのためのディープラーニングフレームワークです。 各入力特徴は補助KG内のノードに似ています。 PLATOはMLPを制御し、高次元の特徴と限られたサンプルを持つ表形式のデータで堅牢なパフォーマンスを達成します。 このフレームワークは、KGノードの類似性に基づいて重みベクトルを推定し、類似の入力特徴は類似の重みベクトルを共有するという帰納的なバイアスを捉えます。 PLATOは6つのデータセットで13のベースラインを最大10.19%上回ります。 補助KGの使用は、データが乏しい状況でのパフォーマンス向上を示します。

アップルの研究者がDeepPCRを公開:通常は順次処理される操作を並列化してニューラルネットワークの推論とトレーニングの速度を向上させる新しい機械学習アルゴリズム

人工知能や深層学習の進展により、さまざまな革新が実現されています。テキストや画像の合成、分割、分類などの複雑なタスクは、ニューラルネットワークの助けを借りて成功裏に処理されています。しかし、ニューラルネットワークのトレーニングにはコンピューティングの要求があり、適切な結果を得るまでには数日または数週間かかる場合があります。事前に訓練されたモデルの推論も、複雑なデザインの場合には遅くなる場合があります。 並列化技術は深層ニューラルネットワークのトレーニングと推論を高速化します。これらの手法は広く使用されていますが、ニューラルネットワークの一部の操作はまだ順次に実行されています。拡散モデルは、ノイズ低減ステージの続けざまに出力を生成し、前方および後方パスは層ごとに行われます。ステップ数が増えると、これらのプロセスの順次実行は計算上の負担となり、計算のボトルネックにつながる可能性があります。 この問題に対処するために、Appleの研究チームはDeepPCRという独自のアルゴリズムを導入し、ニューラルネットワークのトレーニングと推論を高速化しようとしました。DeepPCRは、一連のLステップを一定の方程式の答えとして認識することによって機能します。チームは、この解を取得するためにParallel Cyclic Reduction (PCR) アルゴリズムを使用しました。DeepPCRの主な利点は、順次プロセスの計算コストをO(L)からO(log2 L)に削減できることです。特にLの値が大きい場合には、この複雑性の削減により速度が向上します。 チームは、DeepPCRの複雑性の低減と高速化の条件を検証するために実験を行いました。DeepPCRを適用して、多層パーセプトロンの前方パスと後方パスを並列化することで、前方パスでは30倍、後方パスでは200倍の高速化を達成しました。 チームはまた、DeepPCRの適応性を示すために、1024層を持つResNetのトレーニングに使用しました。DeepPCRのおかげで、トレーニングは最大7倍速く完了することができます。この技術は、拡散モデルの生成フェーズで使用され、シーケンシャルアプローチよりも11倍高速な生成を行います。 チームは、主な貢献を以下のようにまとめています。 ニューラルネットワークのトレーニングと推論の順次プロセスを並列化するための革新的なアプローチであるDeepPCRを紹介しました。その主な特徴は、列長を表すLをO(L)からO(log2 L)に低減する能力です。 DeepPCRは、多層パーセプトロン(MLP)の前方パスと後方パスを並列化するために使用されました。この技術のパフォーマンスに関する詳細な分析が行われ、基本的な設計パラメータを考慮しながら、高パフォーマンスの領域を特定しました。スピード、解の正確性、メモリ使用量のトレードオフも調査しています。 DeepPCRは、MNISTおよびMNIST、CIFAR-10、CelebAのデータセットで訓練された拡散モデルのディープResNetのトレーニングを高速化するために使用されました。DeepPCRは著しく高速化されている一方で、ResNetトレーニングでは7倍高速化し、拡散モデルの生成では11倍高速化し、シーケンシャルな手法と比較可能な結果を生成します。

Find the right Blockchain Investment for you

Web 3.0 is coming, whether buy Coins, NFTs or just Coding, everyone can participate.

Advertising with us