Learn more about Search Results C 14 - Page 8
- You may be interested
- 「生成AIのキーワードを解説する」
- 医療現場におけるAIの潜在能力の開放 (Iry...
- セーフコーダーを紹介します
- 「Pandasqlを使用したPandasでのSQL」
- 「Java での AI:Spring Boot と LangChai...
- 科学者たちは、AIと迅速な応答EEGを用いて...
- このAI研究は、「Atom」という低ビット量...
- データ管理における機械学習の活用
- サイバーセキュリティにおける生成AIの約...
- 小売およびeコマースにおけるMLプラットフ...
- 「画像の補完の進展:この新しいAI補完に...
- 学習する勇気:L1およびL2正則化の解説(...
- CDPとAIの交差点:人工知能が顧客データプ...
- 人工知能による投資アドバイス – メ...
- 「自分自身でタスクを行う方法を知ってい...
トゥギャザーアイは、ShortおよびLongコンテキストの評価で最高のオープンソーストランスフォーマーに対抗する、StripedHyena-7Bという代替人工知能モデルを紹介します
AIと共に、シーケンスモデリングアーキテクチャへの大きな貢献を果たし、StripedHyenaモデルを導入しました。従来のトランスフォーマーに代わる選択肢を提供することで、計算効率とパフォーマンスを向上させることで、このフィールドを革新しました。 このリリースには、ベースモデルのStripedHyena-Hessian-7B(SH 7B)とチャットモデルのStripedHyena-Nous-7B(SH-N 7B)が含まれています。StripedHyenaは、昨年作成されたH3、Hyena、HyenaDNA、およびMonarch Mixerといった効果的なシーケンスモデリングアーキテクチャの学習からの重要な知見に基づいています。 研究者は、このモデルが長いシーケンスをトレーニング、ファインチューニング、および生成する際に、高速かつメモリ効率が向上していることを強調しています。StripedHyenaは、ゲート付き畳み込みとアテンションを組み合わせたハイエナオペレータと呼ばれるものによって、ハイブリッド技術を使用しています。また、このモデルは、強力なトランスフォーマーベースモデルと競合する初めての代替アーキテクチャです。OpenLLMリーダーボードのタスクを含むショートコンテキストのタスクでは、StripedHyenaはLlama-2 7B、Yi 7B、およびRWKV 14Bなどの最強のトランスフォーマーの代替アーキテクチャを上回っています。 このモデルは、ショートコンテキストのタスクと長いプロンプトの処理において、さまざまなベンチマークで評価されました。Project Gutenbergの書籍によるPerplexityスケーリング実験では、Perplexityが32kで飽和するか、このポイントを超えて減少することから、モデルがより長いプロンプトから情報を吸収する能力を示しています。 StripedHyenaは、アテンションとゲート付き畳み込みを組み合わせたユニークなハイブリッド構造によって効率を実現しています。研究者は、このハイブリッドデザインを最適化するために革新的な接ぎ木技術を使用したと述べており、トレーニング中にアーキテクチャの変更を可能にしました。 研究者は、StripedHyenaの重要な利点の1つは、トレーニング、ファインチューニング、および長いシーケンスの生成など、さまざまなタスクにおける高速性とメモリ効率の向上です。最適化されたTransformerベースラインモデルと比較して、StripedHyenaはFlashAttention v2とカスタムカーネルを使用して、32k、64k、および128kの行でエンドツーエンドトレーニングにおいて30%、50%、および100%以上優れています。 将来、研究者はStripedHyenaモデルでいくつかの領域で大きな進歩を遂げたいと考えています。彼らは、長いコンテキストを処理できるより大きなモデルを作成し、情報理解の限界を拡大したいと考えています。さらに、テキストや画像などのさまざまなソースからデータを処理して理解できるようにすることで、モデルの適応性を高めるためのマルチモーダルサポートを取り入れたいとしています。 最後に、StripedHyenaモデルは、ゲート付き畳み込みなどの追加計算を導入することによって、Transformerモデルに対して改善の余地を持っています。このアプローチは、線形アテンションに触発されたものであり、H3やMultiHyenaなどのアーキテクチャにおいて効果が証明されており、トレーニング中のモデルの品質を向上させ、推論効率に利点を提供します。
裁判官がChatGPTを法的判決に使用することが許可されました
イギリスは今、裁判所で「非常に便利な」人工知能チャットボットの使用を許可しています
特定のデータ処理タスクを効率的に解決するための3つのPython操作
あなたに届く生データはほぼ常に希望された形式または必要とされる形式とは異なりますあなたのワークフローは指定された形式に生データを取り込んで始まり、…
「RustコードのSIMDアクセラレーションのための9つのルール(パート1)」
「SIMDを使用してRustコードを高速化するための9つの基本ルールを探索してくださいcoresimd、最適化テクニック、およびパフォーマンスを7倍に向上させる方法を学びましょう」
「ゼロから始めるLoRAの実装」
「LoRA(ローラ)は、既存の言語モデルを微調整するための効率的で軽量な方法を提供する、Low-Rank AdaptationまたはLow-Rank Adaptorsの頭字語ですこれには、BERTのようなマスクされた言語モデルも含まれます...」
Amazon SageMaker JumpStartを使用してLLMと対話するためのWeb UIを作成します
ChatGPTの発売および生成AIの人気の上昇は、AWS上で新しい製品やサービスを作成するためにこの技術をどのように利用できるかについての好奇心を持つ顧客たちの想像力を捉えていますこれにより、より対話的なエンタープライズチャットボットなどの製品やサービスを作成する方法を紹介しますこの記事では、Web UIを作成する方法について説明します
PythonからRustへ:3つの大きな障害を解明する
私を囲む人々は、私が🐍 Pythonの大ファンであることをみんな知っています私は約15年前にMathworksのMatlabにうんざりしてPythonの使用を始めましたMatlabのアイデアは良さそうに思えましたが、マスターした後に…
「2024年のデータサイエンティストにとってのトップ26のデータサイエンスツール」
イントロダクション データサイエンスの分野は急速に進化しており、最新かつ最もパワフルなツールを活用することで、常に最先端に立つことが求められます。2024年には、プログラミング、ビッグデータ、AI、可視化など、データサイエンティストの業務のさまざまな側面に対応した選択肢が豊富に存在します。この記事では、2024年のデータサイエンスの領域を形作っているトップ26のデータサイエンスツールについて探っていきます。 データサイエンティストのためのトップ26のツール プログラミング言語によるツール 1. Python Pythonは、そのシンプルさ、多様性、豊富なライブラリエコシステムのため、データサイエンティストにとって必須の言語です。 主な特徴: 豊富なライブラリサポート(NumPy、Pandas、Scikit-learn)。 広範なコミュニティと強力な開発者サポート。 2. R Rは統計プログラミング言語であり、データ分析と可視化に使用され、頑健な統計パッケージで知られています。 主な特徴: 包括的な統計ライブラリ。 優れたデータ可視化機能。 3. Jupyter Notebook Jupyter Notebookは対話型のコンピューティング環境であり、データサイエンティストがライブコード、数式、可視化、ナラティブテキストを含むドキュメントを作成し共有することができます。 主な特徴: 複数の言語(Python、R、Julia)のサポート。 インタラクティブで使いやすい。…
「チャットボットとAIアシスタントの構築」
この記事は、自然言語処理(NLP)とチャットボットフレームワークの総合ガイドを紹介します詳しくは、学んでください!
UCLAとCMUの研究者が、優れた中程度範囲の天気予報のためのスキルと信頼性のあるスケーラブルなトランスフォーマーニューラルネットワーク「ストーマー」を紹介しました
現在、科学と社会が直面している主な問題の一つは天気予報です。正確な天気予報は、自然災害や極端な天候事象に対処し、回復するために人々が計画するのに重要な役割を果たしており、気候変動への懸念が高まる中で環境をよりよく理解するために研究者を支援しています。数値天気予報(NWP)モデルは、大気科学者の業務の中核です。これらのモデルは、熱力学と流体力学を説明する微分方程式のシステムを使用し、時間を経て結合されることで将来の予測を作成します。NWPモデルは、放射や雲物理学などの重要な小スケールの物理現象のパラメータ化の誤りなど、いくつかの欠点がありますが、広く使用されています。 大規模な微分方程式の統合の困難さから、数値的なアプローチは特に空間および時間の解像度を高くする場合には計算コストが非常に高くなります。さらに、これらのモデルは気候科学者の知識に依存して方程式、パラメータ化、アルゴリズムを改善するため、NWPの予測精度は追加データによっては改善されません。NWPモデルの問題に対処するため、ますます多くの人々がデータ駆動型、深層学習ベースの天気予測手法に関心を示しています。歴史的データ(ERA5再解析データセットなど)を使用して、深層ニューラルネットワークは将来の天気予測を訓練するために使用されます。これがこの手法の主たる前提です。従来のNWPモデルが数時間かかるのに対し、訓練後は数秒で予測することができます。 この分野の初期の取り組みでは、気象データと自然の画像は似たような空間構造を持つため、ResNetやUNetなどの従来のビジョンアーキテクチャを天気予測に使用しようとしました。しかし、それらのパフォーマンスは数値モデルに劣っていました。しかし、改善されたモデル設計、トレーニングレシピ、データとパワーの増加により、最近では注目すべき進展がありました。最初に実用IFCを上回ったモデルは、0.25°データ(721×1440グリッド)でトレーニングされた3D地球特有のトランスフォーマーモデルであるPangu-Weatherでした。すぐに、Keislerのグラフニューラルネットワーク設計がGraphCastによって0.25°データにスケールアップされ、Pangu-Weatherを上回る結果を示しました。 予測精度は優れているものの、現在の手法では複雑で高度にカスタマイズされたニューラルネットワークのトポロジーがしばしば使用され、抜け穴実験がほとんど行われないため、その効果の正確な要素を特定するのは困難です。たとえば、GraphCastにおける多重メッシュメッセージパッシングが効率にどの程度貢献しているのか、3D地球特有のトランスフォーマーが通常のトランスフォーマーと比べてどのような利点を持っているのかは分かりません。この分野では、これらの現行手法をより良く理解し、できれば簡素化するために統合フレームワークが必要です。また、気候や天候の予測を超える気象基礎モデルを作成することも容易になります。この研究では、適切なトレーニングの公式と組み合わせることで、簡単な設計が先端技術を上回る性能を発揮することを示しています。 UCLA、CMU、Argonne National Laboratory、およびPenn State Universityの研究者は、Stormerと呼ばれる、従来のトランスフォーマーのバックボーンにほとんどの変更を加える必要のないシンプルなトランスフォーマーモデルを提案しています。研究チームは、従来のビジョントランスフォーマー(ViT)アーキテクチャをベースにして、モデルのパフォーマンスに影響を与える3つの要素を詳細に調査しました:モデルは次の3つの要素から構成されます:(1)大気変数間の相互作用をモデル化し、入力データをトークンのシーケンスに変換する天気固有の埋め込み層、(2)モデルをランダムな間隔で天気の動態を予測するようにトレーニングするランダムなダイナミクス予測目標、(3)ロス関数において異なる圧力レベルの変数を重み付けして各圧力レベルの密度を近似する圧力加重ロス。提案されたランダムなダイナミクス予測目標は、モデルがトレーニングされた間隔のさまざまな組み合わせを使用することによって、推論中に特定のリードタイムに対して多くの予測を生成するため、1つのモデルが複数の予測を可能にします。 たとえば、6時間の予測を12回配布するか、12時間の予測を6回配布することで、3日間の予測を得ることができます。これらの予測を組み合わせることにより、特に長期のリードタイムにおいて、大きな性能向上が得られます。研究チームは、データ駆動型の天気予測のための人気のあるベンチマークであるWeatherBench 2を使用して、Stormerという提案手法を評価しました。テスト結果は、Stormerが7日後に先端の予測システムを上回り、1日から7日間の重要な大気変数の予測精度で競争力のある結果を達成していることを示しています。特に、Stormerはほぼ5倍低解像度データおよび数桁少ないGPU時間で訓練されることにより、ベースラインよりも性能が向上しています。さらに、スケーリングの研究により、モデルの容量とデータサイズを増やすとStormerの性能が継続的に向上する可能性があることが証明されました。
Find the right Blockchain Investment for you
Web 3.0 is coming, whether buy Coins, NFTs or just Coding, everyone can participate.