Learn more about Search Results LSTM - Page 2
- You may be interested
- AI音楽のソース分離:その仕組みとなぜ難...
- Mistral AIは、Mistral 7Bをオープンソー...
- 「Falcon 180Bをご紹介します:1800億のパ...
- Plotlyの3Dサーフェスプロットを使用して...
- データサイエンスをより速く学ぶために、C...
- 「Pythonデータ構造について知っておくべ...
- ReLoRa GPU上で大規模な言語モデルを事前...
- Amazon Lexのチャットボット開発ライフサ...
- 「アソシエイテッドプレスと他のニュース...
- JupyterAI 生成AI + JupyterLab
- 「より優れたモデルを構築するためには、...
- 「AI規制に反対する理論は無意味である」
- 最適なパイプラインとトランスフォーマー...
- 面接の準備:因果推論
- Amazonの新しいロボットが自動化革命を進...
「2024年の包括的なNLP学習パス」
紹介 2023年は、バード、ジェミニ、そしてChatGPTのような強力な言語モデルの台頭により、自然言語処理(NLP)で画期的な進展がありました。これらの驚異は、単なるAIの進化の見事な快挙だけでなく、機械が前例のない正確さと流暢さで人間の言語を理解し生成できる新たな時代の始まりを意味しています。パーソナライズされたチャットボットからリアルタイム翻訳まで、NLPはテクノロジーと私たちとのインタラクションの方法を革新しています。これらのアプリケーションがますます普及するにつれて、NLPの習得は単なる技能ではなく、必要不可欠なものとなります。 これを念頭に置いて、2024年にNLPの専門家になるための6ヶ月間のステップバイステップの学習パスを作成しました。このNLPの学習パスでは、事前に知っておく必要のある事項から始めます。その後、月ごとに学習と実践が必要な内容を具体的にご案内いたします。 さあ、始めましょう! 2024年の包括的なNLP学習パス概要 Natural Language Processing (NLP)に興味はありますか?それなら、この学習パスがおすすめです!初心者でもわかりやすいように設計されており、6ヶ月でNLPの基礎を学ぶことができます。 何を学ぶことができますか? Month 1: Pythonと基本的な機械学習のスタート。NLPのための統計、確率、およびディープラーニングの概念を学びましょう。 Month 2 & 3: テキスト処理技術、単語埋め込み、PyTorchやTensorFlowなどのディープラーニングフレームワークのマスター。テキスト要約や機械翻訳の最初のプロジェクトを作成しましょう。 Month 4 & 5: BERTやGPT-3などの強力な事前学習モデルを発見しましょう。転移学習、プロンプトエンジニアリング、ファインチューニングの技術を学びましょう。大規模な言語モデルでアプリケーションを作成しましょう。 Month…
「エキスパートのミックスについて解説」
ミクストラル8x7Bのリリース(発表、モデルカード)により、トランスフォーマのクラスがオープンAIコミュニティで最も話題となっています。それがエキスパートの混合(Mixture of Experts、略してMoEs)です。このブログ記事では、MoEsの構成要素、トレーニング方法、および推論時の考慮事項について見ていきます。 さあ、深く掘り下げてみましょう! 目次 ミクストラルとは何ですか? MoEsの簡潔な歴史 スパース性とは何ですか? MoEsのトークンのロードバランシング MoEsとトランスフォーマ スイッチトランスフォーマ ルータZ損失によるトレーニングの安定化 エキスパートは何を学ぶのですか? エキスパートの数をスケーリングすると事前トレーニングにどのような影響を与えるのですか? MoEsの微調整 スパースMoEsと密なモデルの使用時期はいつですか? MoEsを効果的に活用するために エキスパート並列処理 能力係数と通信コスト サービングテクニック 効率的なトレーニング オープンソースのMoEs ワークのエキサイティングな方向性 いくつかのリソース…
「2024年にデータサイエンティストになるためのトップ10のKaggle機械学習プロジェクト」
「トップ10のKaggle機械学習プロジェクトでマスターデータサイエンスを学び、データサイエンティストになろう」
「PDFドキュメントを使用したオブジェクト検出のためのカスタムDetectron2モデルの訓練と展開(パート1:訓練)」
「私は半年ほど、PDF文書を機械読み取り可能にすることで、少なくともセクションを特定するテキストである見出し/タイトルが読み取れるようにするビジネスケースを解決しようと取り組んできました」
このAI研究は、車両の後続振る舞いモデリングのための包括的なベンチマークデータセット「FollowNet」を紹介します
他の車に続くことは、最も一般的で基本的な運転行動です。他の車に安全に従うことは、衝突を減らし、交通の流れを予測しやすくします。ドライバーが道路上で他の車に従うとき、適切な車両追跡モデルは、この行動を数学的または計算的に表現します。 運転データの実世界での利用可能性と機械学習の進歩は、過去10年間にデータ駆動型の車両追従モデルのブームに大きく貢献しました。車両に従うためにデータに依存するモデルには、ニューラルネットワーク、再帰型ニューラルネットワーク、強化学習などがあります。ただし、次のようないくつかの制約もあります: まず、車両追従モデルは、標準のデータ形式の不在のためにまだ十分に評価されていません。NGSIMやHighDなどの公開運転データセットが利用可能であるにもかかわらず、車両追従モデルの新規提案モデルのパフォーマンスを既存のものと比較するのは困難です。 第二に、現在の研究の限られたデータセットでは、混合交通流における車両追従行動を正確に描写することは不可能です。自律型車両を考慮しない小規模なデータセットで車両追従行動をモデリングしているということが先行研究の主な焦点であり、これは人力および自動運転車両が道路を共有している時期に行われたものです。 これらの問題を解決し、標準的なデータセットを作成するために、香港科技大学、広東省統合通信キーラボ、同济大学、ワシントン大学の研究者らによる新しい研究によって、FollowNetというベンチマークが作成されました。彼らは一貫した基準を使用して、5つの公開データセットから車両追跡イベントを抽出し、ベンチマークを確立しました。研究者らはベンチマーク内で5つのベースラインの車両追従モデルを実行し、評価し、従来の手法とデータ駆動型の手法を包括しています。彼らは車両追従モデルの作成を容易にするために、一貫したデータ形式を使用してこのような行動の最初の基準を設定しました。さまざまなデータ構造やフレームワークの取り扱いは困難かもしれませんが、彼らの標準化された車両追従ベンチマークはそれを考慮に入れています。 ベンチマークを使って、GHR、IDM、NN、LSTM、DDPGの2つの従来型および3つのデータ駆動型の車両追従モデルがトレーニングおよび評価されます。HgihD53、Next Generation Simulation(NGSIM)54、Safety Pilot Model Deployment(SPMD)55、Waymo56、およびLyf57という5つの人気のある公開運転データセットは、提案されたベンチマークを構成する車両追従イベントを含んでいます。研究者らは複数のデータセットについて車両追従行動のパターンや基本的な統計情報を調査しました。結果は、一貫した評価指標を用いてベースラインモデルのパフォーマンスを評価することを示しています。特にWaymoとLyfのデータセットでは、車両追従の発生が混合交通状況であることが示されています。静止時間が90%以上のイベントは含まれていません。 データ駆動型のモデルがクラシックなモデルよりもスペーシングのMSEが低くなったとしても、衝突はまだ起こり得ます。衝突率がゼロで、スペーシングエラーが少ない車両追従モデルの開発は望ましいです。データ駆動型モデルを現実世界で実用的かつ安全に使用するために、衝突回避機能を組み込むことは有益です。提案されたベンチマークでは、すべての車両が一貫して似たような行動パターンを示すと考えられています。しかし現実的には、運転習慣はドライバーや車両、交通状況によって大きく異なることがあります。そのため、幅広い運転スタイル、行動、交通状況をカバーする適応可能なアルゴリズムと代表的なデータセットを作成することは、車両追従モデルに運転の異質性を含めるために不可欠です。 研究者らは、将来のデータセットが更なる性能と現実性を向上させるために、追加のフィーチャーを取り入れる必要があると提案しています。例えば、交通信号や道路の状況データを追加することで、より完全な道路環境の全体像が得られるかもしれません。さらに、アルゴリズムは、近くの車両やその活動に関するデータを統合すれば複雑な関係性を考慮し、より良い予測を提供することができます。これらの追加データソースを使用することで、将来のデータセットはより現実世界の運転シナリオを反映できるようになり、頑健かつ効果的な車両追従アルゴリズムの作成を可能にします。
このAI論文では、「Lightning Cat」というスマート契約の脆弱性検出ツールを紹介していますこれは、深層学習をベースにしたツールです
スマートコントラクトは、分散型アプリケーションの開発においてブロックチェーン技術で重要な役割を果たしています。スマートコントラクトの脆弱性は、潜在的な財務損失やシステムのクラッシュといった重大な脅威をもたらします。静的解析ツールなど従来の脆弱性検出方法は、事前に定義されたルールに依存するため、偽陽性や偽陰性が頻繁に発生します。この問題に対応するため、中国のSalus Securityの研究チームが「Lightning Cat」という新しいAIソリューションを導入し、スマートコントラクトの脆弱性検出に深層学習技術を活用しています。 論文の要点は3つの部分に分けられます。まず、スマートコントラクトの脆弱性検出に深層学習手法を活用したLightning Catソリューションの紹介です。次に、重要なデータ前処理手法が提案されており、CodeBERTを通じた意味的な特徴の抽出に重点が置かれています。最後に、実験結果はOptimised-CodeBERTが他のモデルより優れた性能を示していることを示しています。 研究者たちは、静的解析ツールの制限に取り組み、Lightning Catフレームワーク内に3つの最適化された深層学習モデル(Optimised-CodeBERT、LSTM、CNN)を提案しています。CodeBERTモデルは、スマートコントラクトの脆弱性検出の特定のタスクに対応するためにファインチューニングされた、事前学習済みのトランスフォーマーベースのモデルです。意味解析能力を向上させるために、研究者たちはデータ前処理でCodeBERTを使用し、コードの構文と意味に対するより正確な理解を可能にしています。 実験はSolidiFIベンチマークデータセットを使用して行われました。これには、7つの異なるタイプの脆弱性が含まれた9369の脆弱なコントラクトが注入されています。結果は、Optimised-CodeBERTモデルが優れた93.53%のf1スコアを達成し、脆弱性の特徴を正確に抽出する重要性が示されています。データ前処理におけるCodeBERTの使用は、構文と意味のより正確な把握に貢献しています。 研究者たちは、Lightning Catを静的解析ツールを超えるソリューションと位置付け、深層学習を活用して適応し続けることを強調しています。データ前処理においてCodeBERTが効果的に使用され、構文と意味の両方を捕捉する能力が評価されています。Optimised-CodeBERTモデルの優れたパフォーマンスは、脆弱性の特徴の抽出における精度によります。 結論として、研究者たちはスマートコントラクトの脆弱性検出が財務損失を防止し、ユーザーの信頼を保つ上で重要な役割を果たすことを主張しています。深層学習に基づくアプローチと最適化されたモデルを備えたLightning Catは、精度と適応性の面で既存のツールを凌駕する有望なソリューションとして浮上しています。
「基本的なアルゴリズムと機械学習の最新のアルゴリズムを使用して、コンピュータ科学の問題に取り組む」
「Packtの『プログラマーが知っておくべき50のアルゴリズム』で、LSTMsやGRUs、RNNsなどのディープラーニング、そしてChatGPTなどのジェネレーティブAI&LLMsを含むマスターアルゴリズムを学びましょう」
マルチクエリアテンションの解説
マルチクエリアテンション(MQA)は、モデルのパフォーマンスを保証しながら、デコーダ内のトークン生成の速度を加速することができるアテンションメカニズムの一種ですこれは、大規模な時代に広く使用されています
「ローカルCPUで小規模言語モデルを実行するための7つの手順」
わずか7つの簡単な手順で、地元のCPUで小規模な言語モデルを実行する方法を発見しましょう
ヨハネス・ケプラー大学の研究者たちは、GateLoopを紹介します:線形循環とデータ制御された状態遷移によるシーケンスモデリングの進歩
ヨハネス・ケプラー大学の研究者が、効率的な長いシーケンスのモデリングのために線形再帰の可能性を活用する革新的なシーケンスモデルであるGateLoopを紹介しました。これは線形再帰モデルを一般化し、自己回帰言語モデリングでそれらを上回りました。GateLoopは低コストの再帰モードと効率的な並列モードを提供し、Transformerアーキテクチャに強く関連する置換注意モードを導入します。これはデータ制御された相対的位置情報を注意に提供し、既存のモデルで使用される従来の累積和を超えたより堅牢なシーケンスモデルのためのデータ制御された積の重要性を強調します。 GateLoopはS4、S5、LRU、RetNetなどの線形再帰モデルの機能を拡張する多目的なシーケンスモデルで、データ制御された状態推移を利用しています。GateLoopは自己回帰言語モデリングで優れた性能を発揮し、効率的な再帰モードと非常に効率的な並列モードの両方を提供します。Transformerアーキテクチャに関連する置換注意モードを導入します。研究では、接頭辞累積積の事前計算、演算子の結合性、非データ制御パラメータ化などの重要な側面について議論しています。GateLoopはWikiText103データセットでより低いパープレキシティスコアで経験的に検証されています。既存のモデルは線形再帰の可能性を十分に活用していないことが示されており、GateLoopはデータ制御された推移と複雑な累積積を用いてこれを解決しています。 長距離の依存関係を持つシーケンスは、機械学習においては再帰ニューラルネットワーク(RNN)で従来から取り組まれています。ただし、RNNは消失・発散勾配に直面し、長いシーケンスに対して安定性を妨げます。LSTMやGRUなどのゲート付きのバリアントはこれらの問題を軽減しますが、より効率的である必要があります。Transformerはグローバルな依存関係のための注意メカニズムを導入し、再帰を排除しました。並列トレーニングとグローバルなペアワイズ依存性を可能にするものの、二次の計算量によって長いシーケンスでの利用が制限されます。線形再帰モデル(LRM)はGateLoopを通じてLRMを一般化する基本的なシーケンスモデルとしての代替手段を提供し、自己回帰言語モデリングで優れた性能を発揮し、多目的な操作モードを提供します。 GateLoopは効率的なO(l)再帰モード、最適化されたO(llog2l)並列モード、およびO(l2)の置換注意モードを提供し、注意にデータ制御された相対的位置情報を提供します。WikiText-103ベンチマークでの実験により、GateLoopの自己回帰自然言語モデリングの能力が示されています。合成課題により、データ制御された状態推移の経験的利点が確認されます。重要な側面には、接頭辞累積積の事前計算、非データ制御パラメータ化が含まれ、変数の増加を防ぐために行われます。 GateLoopは、データ制御された状態推移を取り入れたシーケンスモデルであり、WikiText-103ベンチマークでの実験によって自己回帰言語モデリングで優れた性能を発揮します。他のモデルよりも低いテストのパープレキシティを達成し、シーケンスモデリングにおけるデータ制御された状態推移の実用的な利点を強調しています。GateLoopのメモリを入力に応じて忘れる能力は、関連する情報にために効果的に隠れた状態を管理することができます。研究では、初期化戦略、振幅と位相の活性化、学習された状態推移の解釈可能性など、将来の研究可能性について概説しています。 GateLoopは、データ制御された入力、出力、状態推移のゲーティングを通じて既存の線形再帰モデルを拡張する、完全にデータ制御された線形RNNです。他のモデルを上回る自己回帰言語モデリングの性能を発揮します。GateLoopのメカニズムは相対的な位置情報を注意に提供し、O(l2)の計算量を持つ置換注意モードと同等の形式で再定式化できます。経験的結果は、完全にデータ制御された線形再帰の効果を自己回帰言語モデリングで検証しています。このモデルは入力に応じてメモリを忘れることができ、関連する情報のためにスペースを確保します。将来の研究の可能性には、異なる初期化戦略、振幅と位相の活性化、および習得された状態推移の解釈可能性の向上があります。
Find the right Blockchain Investment for you
Web 3.0 is coming, whether buy Coins, NFTs or just Coding, everyone can participate.