Learn more about Search Results による - Page 7
- You may be interested
- Google AIは、MediaPipe Diffusionプラグ...
- 希望、恐怖、そしてAI:AIツールに対する...
- GoogleのSymbol Tuningは、LLM(Language ...
- 従業員のエンゲージメント向上にゲーミフ...
- 「ラマ-2、GPT-4、またはクロード-2;どの...
- 毎日時間を節約する14のGoogle Driveアドオン
- スタンフォード大学の研究者がSequenceMat...
- 「Pythonのオブジェクト指向プログラミン...
- 「UCバークレーの研究者が開発したALIA:...
- 「AIは政治をより簡単、安価かつ危険にする」
- Unityを使用して知能を解決するための利用
- 「デジタルハイスト」がロゼッタストーン...
- 「おそらく知らなかった4つのPython Itert...
- 「先天性とは何か、そしてそれは人工知能...
- GoogleのプロジェクトOpen Se Curaをご紹...
イーロン・マスクのニューラリンクによる脳チップ埋め込みを受けるために、数千人が並ぶ
「削除された頭蓋骨の一部を代替するために設計されたインプラントは、その人の脳の活動を読み取り分析し、情報を近くのラップトップやタブレットにワイヤレスで送信します」
このAI論文は、柔軟なタスクシステムと手順的生成による強化学習を革新するNeural MMO 2.0を紹介しています
MIT、CarperAI、Parametrix.AIの研究者らは、Neural MMO 2.0を導入しました。これは、多様な目的と報酬信号を定義できる柔軟なタスクシステムを強調した、強化学習研究用の大規模マルチエージェント環境です。主な改善点は、未知のタスク、マップ、対戦相手に対応できるエージェントのトレーニングを研究者に課すことです。バージョン2.0は完全なリライトを行い、CleanRLとの互換性を確保し、適応性のあるエージェントのトレーニングに向けた強化機能を提供しています。 2017年から2021年の間に、Neural MMOの開発により、Griddly、NetHack、MineRLなどの影響力のある環境が生まれました。これらは以前の出版物で詳細に比較されました。2021年以降、Melting PotやXLandなどの新しい環境が存在し、マルチエージェント学習と知能評価シナリオの範囲が拡大しました。Neural MMO 2.0は、性能が向上し、多様な目的の定義が可能な柔軟なタスクシステムを搭載しています。 Neural MMO 2.0は、柔軟なタスクシステムを通じて、幅広い目標と報酬信号をユーザーが定義できる高度なマルチエージェント環境です。このプラットフォームは完全なリライトが行われ、複雑なマルチエージェントの相互作用と強化学習のダイナミクスの研究のための動的な空間を提供します。タスクシステムには、GameState、Predicates、Tasksの3つのコアモジュールがあり、構造化されたゲーム状態のアクセスを提供します。Neural MMO 2.0は、マルチエージェントの相互作用と強化学習のダイナミクスを探求するための強力なツールです。 Neural MMO 2.0はPettingZoo ParallelEnv APIを実装し、CleanRLのProximal Policy Optimizationを活用しています。このプラットフォームには、GameState、Predicates、Tasksの3つの相互接続されたタスクシステムモジュールがあります。GameStateモジュールは、ゲーム状態全体をフラットテンソル形式でホストすることでシミュレーション速度を高速化します。25個の組み込み述語を備えることで、研究者は複雑で高レベルな目標を明確に説明でき、イベントデータがタスクシステムの機能を効率的に拡張するための補助データストアも提供します。前バージョンと比べて3倍のパフォーマンス向上を達成したこのプラットフォームは、複雑なマルチエージェントの相互作用、リソース管理、強化学習における競争力の動的な研究空間です。 Neural MMO 2.0は、性能が向上し、CleanRLを含む人気のある強化学習フレームワークとの互換性があることで、重要な進歩を示しています。柔軟なタスクシステムにより、複雑なマルチエージェントの相互作用、リソース管理、競争力のダイナミクスを研究する貴重なツールとなります。Neural MMO…
ヨハネス・ケプラー大学の研究者たちは、GateLoopを紹介します:線形循環とデータ制御された状態遷移によるシーケンスモデリングの進歩
ヨハネス・ケプラー大学の研究者が、効率的な長いシーケンスのモデリングのために線形再帰の可能性を活用する革新的なシーケンスモデルであるGateLoopを紹介しました。これは線形再帰モデルを一般化し、自己回帰言語モデリングでそれらを上回りました。GateLoopは低コストの再帰モードと効率的な並列モードを提供し、Transformerアーキテクチャに強く関連する置換注意モードを導入します。これはデータ制御された相対的位置情報を注意に提供し、既存のモデルで使用される従来の累積和を超えたより堅牢なシーケンスモデルのためのデータ制御された積の重要性を強調します。 GateLoopはS4、S5、LRU、RetNetなどの線形再帰モデルの機能を拡張する多目的なシーケンスモデルで、データ制御された状態推移を利用しています。GateLoopは自己回帰言語モデリングで優れた性能を発揮し、効率的な再帰モードと非常に効率的な並列モードの両方を提供します。Transformerアーキテクチャに関連する置換注意モードを導入します。研究では、接頭辞累積積の事前計算、演算子の結合性、非データ制御パラメータ化などの重要な側面について議論しています。GateLoopはWikiText103データセットでより低いパープレキシティスコアで経験的に検証されています。既存のモデルは線形再帰の可能性を十分に活用していないことが示されており、GateLoopはデータ制御された推移と複雑な累積積を用いてこれを解決しています。 長距離の依存関係を持つシーケンスは、機械学習においては再帰ニューラルネットワーク(RNN)で従来から取り組まれています。ただし、RNNは消失・発散勾配に直面し、長いシーケンスに対して安定性を妨げます。LSTMやGRUなどのゲート付きのバリアントはこれらの問題を軽減しますが、より効率的である必要があります。Transformerはグローバルな依存関係のための注意メカニズムを導入し、再帰を排除しました。並列トレーニングとグローバルなペアワイズ依存性を可能にするものの、二次の計算量によって長いシーケンスでの利用が制限されます。線形再帰モデル(LRM)はGateLoopを通じてLRMを一般化する基本的なシーケンスモデルとしての代替手段を提供し、自己回帰言語モデリングで優れた性能を発揮し、多目的な操作モードを提供します。 GateLoopは効率的なO(l)再帰モード、最適化されたO(llog2l)並列モード、およびO(l2)の置換注意モードを提供し、注意にデータ制御された相対的位置情報を提供します。WikiText-103ベンチマークでの実験により、GateLoopの自己回帰自然言語モデリングの能力が示されています。合成課題により、データ制御された状態推移の経験的利点が確認されます。重要な側面には、接頭辞累積積の事前計算、非データ制御パラメータ化が含まれ、変数の増加を防ぐために行われます。 GateLoopは、データ制御された状態推移を取り入れたシーケンスモデルであり、WikiText-103ベンチマークでの実験によって自己回帰言語モデリングで優れた性能を発揮します。他のモデルよりも低いテストのパープレキシティを達成し、シーケンスモデリングにおけるデータ制御された状態推移の実用的な利点を強調しています。GateLoopのメモリを入力に応じて忘れる能力は、関連する情報にために効果的に隠れた状態を管理することができます。研究では、初期化戦略、振幅と位相の活性化、学習された状態推移の解釈可能性など、将来の研究可能性について概説しています。 GateLoopは、データ制御された入力、出力、状態推移のゲーティングを通じて既存の線形再帰モデルを拡張する、完全にデータ制御された線形RNNです。他のモデルを上回る自己回帰言語モデリングの性能を発揮します。GateLoopのメカニズムは相対的な位置情報を注意に提供し、O(l2)の計算量を持つ置換注意モードと同等の形式で再定式化できます。経験的結果は、完全にデータ制御された線形再帰の効果を自己回帰言語モデリングで検証しています。このモデルは入力に応じてメモリを忘れることができ、関連する情報のためにスペースを確保します。将来の研究の可能性には、異なる初期化戦略、振幅と位相の活性化、および習得された状態推移の解釈可能性の向上があります。
「AIの力による消費者の支払い行動予測」
「AIが予測能力を活用して消費者の支払行動を理解し、予測する方法を発見し、事業に行動可能な洞察を提供する」
「PyMC-Marketingによる顧客のライフタイムバリュー予測」
要約:顧客生涯価値(CLV)モデルは、顧客分析において価値のある顧客を特定するための重要な技術ですCLVを無視すると、過剰な投資が生じる可能性があります...
オープンAIによるこの動きは、AGIへの道を開くだろう
人工知能(AI)の能力向上を目指した画期的な取り組みの一環として、OpenAIはデータパートナーシップイニシアチブを発表しました。このプログラムは、世界の組織との協力を招き、包括的な公共およびプライベートデータセットの共同構築を目指してAIモデルのトレーニングを強化し、AGIへの道を切り拓くことを目的としています。 多様なトレーニングデータセットの必要性 現代のAIの基盤は、人間社会の複雑さを理解する能力にあります。OpenAIは、さまざまな主題、産業、文化、言語を深く理解するAIモデルの作成の重要性を強調しつつ、トレーニングデータセットの幅広さと深さがこれを実現する鍵であることを認識しています。 既存のパートナーとの協力 OpenAIは、国や産業に特化したデータの貢献に熱心な複数のパートナーと緊密に協力しています。アイスランド政府やMiðeind ehfとの最近の連携では、AIに適したキュレートされたデータセットを統合することで、GPT-4のアイスランド語能力を向上させる取り組みが行われています。さらに、OpenAIはFree Law Projectと提携し、法的理解へのアクセスを民主化するために広範な法的文書のコレクションをAIのトレーニングに組み込んでいます。 OpenAIが求めるデータの種類 OpenAIは、人間社会を反映し、オンラインでは簡単に入手できない大規模なデータセットを積極的に求めています。テキスト、画像、音声、ビデオなど、さまざまなモダリティのデータを対象とし、言語、トピック、形式にわたる人間の意図を伝えるデータセットに特に関心を持っています。 パートナーシップの機会と方法 OpenAIは、組織がこの革新的な取り組みに貢献するための2つの方法を提供しています: オープンソースアーカイブ:OpenAIは、言語モデルのトレーニング用のオープンソースデータセットの共同作成パートナーを募集しています。このデータセットは一般に公開され、より広範なAIエコシステムに貢献します。 プライベートデータセット:データを機密に保ちながらAIモデルの理解を向上させたい組織に対して、OpenAIはプライベートデータセットの作成オプションを提供しています。OpenAIは、最高水準の機密性とアクセス制御を確保し、データの機密性を保ちながらAIの進歩の恩恵を受けることができるよう支援します。 私たちの意見 OpenAIのデータパートナーシップイニシアティブは、AIの進歩を民主化するための重要な一歩です。組織が独自のデータセットを共有することを奨励することで、OpenAIはより安全で人類にとって有益なモデルを作り出すことを目指しています。この協力的な取り組みは、真にグローバルなコミュニティに奉仕する人工汎用知能(AGI)を実現する旅路における転換点を示しています。OpenAIは、潜在的なパートナーがAI研究の未来を形作るために手を結ぶことと、私たちの世界を包括的に理解するモデルの開発に貢献することを歓迎しています。
潜在一貫性LoRAsによる4つのステップでのSDXL
潜在的一貫性モデル(LCM)は、ステーブルディフュージョン(またはSDXL)を使用してイメージを生成するために必要なステップ数を減らす方法です。オリジナルモデルを別のバージョンに蒸留し、元の25〜50ステップではなく4〜8ステップ(少ない)だけを必要とするようにします。蒸留は、新しいモデルを使用してソースモデルからの出力を再現しようとするトレーニング手順の一種です。蒸留されたモデルは、小さく設計される場合があります(これがDistilBERTや最近リリースされたDistil-Whisperの場合)または、この場合のように実行に必要なステップ数を減らします。これは通常、膨大な量のデータ、忍耐力、およびいくつかのGPUが必要な長時間かかる高コストのプロセスです。 それが今日までの現状でした! 私たちは、Stable DiffusionとSDXLを、まるでLCMプロセスを使用して蒸留されたかのように、速くする新しい方法を発表できることを喜ばしく思います!3090で7秒の代わりに約1秒、Macで10倍速くSDXLモデルを実行する、というのはどうですか?詳細は以下をご覧ください! 目次 メソッドの概要 なぜこれが重要なのか SDXL LCM LoRAsによる高速推論 品質の比較 ガイダンススケールとネガティブプロンプト 品質 vs. ベースのSDXL 他のモデルとのLCM LoRAs フルディフューザーズの統合 ベンチマーク 今日リリースされたLCM LoRAsとモデル ボーナス:通常のSDXL LoRAsとの組み合わせ LCM…
アルゴリズムが加齢による眼の病気の早期発見を支援する
新たな深層学習アルゴリズムによって、年齢関連黄斑変性が1年以内により重度な地理性萎縮へ進行するか予測することができます
エンタープライズデータの力を活用するための生成AI:Amazon Kendra、LangChain、および大規模言語モデルによる洞察
広範な知識を持つ大規模言語モデル(LLM)は、ほぼあらゆるトピックについて人間らしいテキストを生成することができますしかし、大量のデータセットでの訓練は、専門的なタスクに対しての利用価値を制限します継続的な学習がなければ、これらのモデルは初期の訓練後に現れる新しいデータやトレンドに無関心ですさらに、新しいLLMを訓練するためのコストも[…]
コンピュータービジョンによる車両損傷検出の構築方法
「2つのモデルを使用したコンピュータビジョンソリューションの設計原則を探求し、Mask R-CNNとU-Net AIアルゴリズムの能力を評価しましょう」
Find the right Blockchain Investment for you
Web 3.0 is coming, whether buy Coins, NFTs or just Coding, everyone can participate.