Learn more about Search Results A - Page 574

『トランスフォーマーの位置符号化の解説』

元のトランスフォーマーアーキテクチャでは、位置エンコーディングが入力と出力の埋め込みに追加されました位置エンコーディングは、トランスフォーマーにおいて重要な役割を果たし、それらが…

「エンドツーエンドの推薦システムの構築」

私が非常に興味を持つ機械学習の領域は、製品やサービスの推奨を通じてユーザーの体験を個別化することですこの情熱を追求するために、エンドトゥエンドで取り組むことに決めました...

電動車向けのZenML:データから効率予測へ

はじめに 電気自動車の効率を予測し、ユーザーがそのシステムを簡単に使用できるシステムがあると思ったことはありますか?電気自動車の世界では、電気自動車の効率を非常に高い精度で予測することができます。このコンセプトは現実の世界にも導入され、私たちはZenmlとMLflowに非常に感謝しています。このプロジェクトでは、技術的な深いダイブを探求し、データサイエンス、機械学習、およびMLOpsの組み合わせがこのテクノロジーを美しく作り上げる方法を見ていきます。また、電気自動車にどのようにZenMLを使用するかも見ていきます。 学習目標 この記事では、以下のことを学びます。 Zenmlとは何か、エンドツーエンドの機械学習パイプラインでの使用方法を学ぶ。 MLFlowの役割を理解し、機械学習モデルの実験トラッカーを作成する。 機械学習モデルの展開プロセスと予測サービスの設定方法を探索する。 機械学習モデルの予測との対話に使用するユーザーフレンドリーなStreamlitアプリの作成方法を発見する。 この記事はデータサイエンスブログマラソンの一環として公開されました。 電気自動車の効率を理解する 電気自動車(EV)の効率は、バッテリーからの電気エネルギーを走行距離にどれだけ効率よく変換できるかを示します。通常、kWh(キロワット時)あたりのマイルで測定されます。 モーター効率、バッテリー効率、重量、空力、および補助負荷などの要素がEVの効率に影響を与えます。したがって、これらの領域を最適化すると、EVの効率を改善することができます。消費者にとっては、より効率の高いEVを選ぶことで、より良い運転体験が得られます。 このプロジェクトでは、実際のEVデータを使用して電気自動車の効率を予測するエンドツーエンドの機械学習パイプラインを構築します。効率を正確に予測することで、EVメーカーは設計を最適化することができます。 ZenMLというMLOpsフレームワークを使用して、機械学習モデルのトレーニング、評価、展開のワークフローを自動化します。ZenMLは、MLライフサイクルの各ステージでのメタデータの追跡、アーティファクトの管理、モデルの再現性の機能を提供します。 データ収集 このプロジェクトでは、Kaggleからデータを収集します。かわいいは、データサイエンスや機械学習プロジェクトのための多くのデータセットを提供するオンラインプラットフォームです。必要な場所からデータを収集することができます。このデータセットを収集することで、モデルへの予測を行うことができます。以下は、すべてのファイルやテンプレートが含まれている私のGitHubリポジトリです: https://github.com/Dhrubaraj-Roy/Predicting-Electric-Vehicle-Efficiency.git 問題の設定 効率的な電気自動車は未来ですが、その走行範囲を正確に予測することは非常に困難です。 解決策 私たちのプロジェクトは、データサイエンスとMLOpsを組み合わせて、電気自動車の効率予測のための正確なモデルを作成し、消費者とメーカーの両方に利益をもたらします。 仮想環境の設定 なぜ仮想環境を設定したいのでしょうか? プロジェクトを他のプロジェクトとの競合せずに目立たせるためです。…

「カートゥーンアニメーションの未来を照らす:ラインドローイングインビトのイノベーション」

“`html 1900年代初頭にアニメーション制作が始まって以来、カートゥーンアニメーションは大きな進歩を遂げてきました。アニメーターが手描きでフレームを1枚ずつ描いていた時代から、カラーリゼーションや特殊効果などアニメーション制作の特定のタスクを支援するために自動化技術が導入されましたが、各フレームのキャラクターの線画を手描きするという基本的な作業は2Dアニメーションにおいては労働集約的なものです。 2つのキーフレームから中間線画を自動生成するためのアルゴリズムの開発、一般的に「インビート」と呼ばれるプロセスは、業界内で生産性を大幅に向上させる潜在的な能力を持っています。線画のインビートは、一般的なフレーム補完と比較して、線画の希薄さにより独特のチャレンジがあります。これらの線画は通常、約3%の黒いピクセルを含み、残りのイメージは白い背景になっています。この特異性は、既存のラスタイメージベースのフレーム補完手法に対して2つの重要な課題を提起します。まず、線画のテクスチャの欠如により、フレーム補完においてピクセルごとの対応を正確に計算することが困難になり、単一のピクセルに対する複数の類似の一致候補による不正確な動きの予測が生じます。次に、フレーム補完で使用されるワーピングとブレンディング技術は、線と背景の重要な境界をぼかすことがあり、詳細の大幅な損失を引き起こします。 上記の問題を考慮して、「AnimeInbet」と呼ばれる新しい深層学習フレームワークが提案されました。このフレームワークは、ラスタイメージではなくジオメトリ化された形式で線画のインビートを実行します。アプローチの概要は以下の図に示されています。 このプロセスでは、ソースイメージをベクトルグラフに変換して中間グラフを合成します。この改変は、先に述べた課題に対処します。ジオメトリ領域のマッチングプロセスは、すべてのピクセルではなく密集したジオメトリエンドポイント頂点に焦点を当てることで、潜在的な曖昧さを減らし、対応の正確性を高めます。さらに、配置プロセスでは、線画のトポロジーを保持するため、複雑で緻密な線構造の保持が可能です。 AnimeInbetフレームワークの基本的なコンセプトは、2つの入力線画グラフ間のマッチング頂点の特定を行い、それらを再配置して新しい中間グラフを作成することです。プロセスは、頂点のエンコーディング戦略の開発から始まります。これにより、まばらに描かれた線のエンドポイントのジオメトリ的特徴を区別することができます。その後、頂点対応トランスフォーマーを使用して、2つの入力線画のエンドポイント間でのマッチングを確立します。マッチした頂点からのシフトベクトルは、集約された特徴の類似性に基づいて一致しない頂点に伝播され、すべてのエンドポイントの再配置を容易にします。最後に、フレームのインビート中に覆われる頂点とエッジを除去するための可視性マスクを予測し、クリーンで完全な中間フレームの作成を確保します。 頂点対応の教師付きトレーニングをサポートするために、MixamoLine240という新しいデータセットが導入されました。このユニークなデータセットは、グラウンドトゥルースのジオメトリ化および頂点のマッチングラベルを持つ線画を提供しています。データセットの2D線画は、3Dモデルの特定のエッジから選択的に生成され、エンドポイントはインデックス付きの3D頂点に対応します。3D頂点を参照点として使用することで、データセットの頂点レベルでの頂点対応ラベルの正確性と一貫性を確保しています。 既存の手法と比較して、AnimeInbetフレームワークは、クリーンで完全な中間線画を生成する能力を実証しています。研究からのいくつかの例を以下に報告します。 “` これは、アニメインベットの要約であり、ラスター画像ではなく幾何化された形式で線画のインビトゥイングを行う新しいAI技術です。興味があり、詳細を学びたい場合は、以下のリンクを参照してください。

「初心者からニンジャへ:なぜデータサイエンスにおけるPythonのスキルが重要なのか」

「データサイエンティストとして、Pythonのスキルを向上させる価値はありますか?さまざまなレベルの専門知識をもつ人々のコード比較にダイブし、「十分」は本当に十分なのかを見つけましょう」

「ConvNetは復活しているのか?ウェブスケールのデータセットとビジョントランスフォーマーの性能を解明する」

<img alt=”” src=”https://ai.miximages.com/www.marktechpost.com/wp-content/uploads/2023/10/Screenshot-2023-10-30-at-9.55.22-PM-1024×585.png”/><img alt=”” src=”https://ai.miximages.com/www.marktechpost.com/wp-content/uploads/2023/10/Screenshot-2023-10-30-at-9.55.22-PM-150×150.png”/><p>研究者は、コンピュータビジョンの分野で、大規模なウェブスケールのデータセットへのアクセスがある場合、ビジョントランスフォーマ(ViT)が畳み込みニューラルネットワーク(ConvNet)よりも優れているという一般的な信念に挑戦しています。彼らはNFNetと呼ばれるConvNetアーキテクチャを紹介し、約4兆個のラベル付き画像を含む巨大なデータセットであるJFT-4Bで事前トレーニングを行います。彼らの目的は、NFNetモデルのスケーリング特性を評価し、同様の計算予算を持つViTと比較していかなるパフォーマンスを発揮するかを確認することです。</p><p>近年、ViTは人気を集めており、特に大規模なデータセットを扱う場合にはConvNetを凌駕するとの広く信じられています。しかし、この考えには実証的な根拠がなく、多くの研究が弱いConvNetベースラインとViTを比較しています。さらに、ViTは遥かに大きな計算予算で事前トレーニングされており、これらのアーキテクチャ間の実際のパフォーマンスの違いについて疑問が投げかけられています。</p><p>特にResNetなどのConvNetは、コンピュータビジョンのタスクにおいて何年もの間選ばれてきました。しかし、トランスフォーマベースのモデルであるViTの台頭により、モデルのパフォーマンス評価方法が変化し、大規模なウェブスケールのデータセットで事前トレーニングされたモデルに焦点が当てられるようになりました。</p><p>研究者はConvNetアーキテクチャであるNFNetを紹介し、JFT-4Bデータセットで、アーキテクチャとトレーニング手順を重要な変更なしで事前トレーニングを行います。彼らは、NFNetモデルのパフォーマンスが、0.4kから110kのTPU-v4コアの計算時間の範囲でどのようにスケーリングするかを調べます。彼らの目標は、同様の計算リソースを使用してNFNetがViTと性能を比較できるかどうかを判断することです。</p><p>研究チームは、JFT-4Bデータセットで深さと幅が異なるさまざまなNFNetモデルをトレーニングします。彼らはこれらの事前トレーニング済みモデルをImageNetで微調整し、事前トレーニング時に使用する計算予算に対してパフォーマンスをプロットします。彼らはまた、対数-対数スケーリング則を観察し、より大きな計算予算がより良いパフォーマンスにつながることを発見します。興味深いことに、最適なモデルサイズとエポック予算は同時に増加することに気付きます。</p><p>研究チームは、最も高価な事前トレーニング済みNFNetモデルであるNFNet-F7+が、事前トレーニングに110kのTPU-v4コア時間、微調整に1.6kのTPU-v4コア時間を使用してImageNetのトップ-1の精度が90.3%を達成することを発見します。さらに、微調整の際に繰り返し拡張を導入することで、素晴らしい90.4%のトップ-1の精度が実現されます。比較的に、より大規模な事前トレーニング予算が必要なViTモデルも同様のパフォーマンスを達成します。</p><p>結論として、この研究は、同様の計算予算で訓練された場合、ViTがConvNetを大幅に上回るという一般的な信念に挑戦しています。彼らはNFNetモデルがImageNetで競争力のある結果を達成できることを示しています。この研究は、モデルのパフォーマンスにおいて計算リソースとデータの利用可能性が重要な要素であると強調しています。ViTにはその利点がありますが、NFNetのようなConvNetも、特に大規模なスケールでトレーニングされた場合には手ごわい競争相手です。この研究は、パフォーマンスと計算要件の両方を考慮した、公平でバランスの取れたアーキテクチャの評価を推奨しています。</p>

「プリントオンデマンドのドロップシッピング:芸術への情熱を収益化する」

需要に応じた印刷および配送は、電子商取引の領域で画期的なビジネスモデルとして現れましたこれにより、在庫や前払いの投資を必要とせずに、個人がアートへの愛を事業に変えるチャンスが提供されますこのブログ記事では、需要に応じた印刷および配送の世界について詳しく取り上げ、アートへの情熱を収益化する方法について説明します ... 需要に応じた印刷および配送:アートへの情熱を収益化するために

「二つの頭を持つ分類器の使用例」

実際のコンピュータビジョンタスクの実例について話しましょう初めて見ると、分類問題は非常に単純ですが、それは一部当てはまると言えますしかし、現実世界ではしばしば何かしらの…

ニューラルネットワークにおける系統的組み合わせ可能性の解除:組み合わせ可能性のためのメタラーニング(MLC)アプローチによるブレイクスルー

人工知能(Artificial Intelligence)と機械学習(Machine Learning)の分野はますます普及しています。これらの領域での主要な関心事の一つは、機械が人間の認知と言語の複雑さを再現できる能力です。まだ疑問が残るのは、ロボットが人間の言語と認知を特徴付ける方法論的な構成性を本当に再現できるのかという点です。 人間の学習における体系性は、新しいアイデアを獲得し、それらを既存のものと体系的に統合する能力です。体系的な構成性は人間の言語と知性の素晴らしい能力です。そのアイデアは代数方程式を解くことに似ており、既知の要素の新しい組み合わせを生成し理解する能力が必要です。 しかし、ニューラルネットワークの分野ではこの体系性の問題はまだ解決されていません。この分野での大きな進展にもかかわらず、FodorとPylyshynによって提唱されたよく知られた主張が浮上しています。彼らによれば、人間の心のモデルとしての人工ニューラルネットワークは、この能力を持たないため不十分です。それに対し、最近、研究チームは、メタラーニング(Meta-Learning)の一種である構成性のためのメタラーニング(MLC)という新技術を使用することで、ニューラルネットワークが人間のような体系性を獲得できる可能性を示しました。 このアプローチでは、ニューラルネットワークを訓練するため、一連の動的な構成問題に基づいています。この研究では、行動学習を行うための指示学習パラダイムを使用して、人間と機械のパフォーマンスを比較しました。MLCは、人間と機械の体系性の面での差を埋める役割を果たしています。このアプローチでは、ニューラルネットワークの学習プロセスを高次のガイダンスと人間の例に基づいて指導するため、手動で作成された内部表現や帰納バイアスに依存するのではなく、メタラーニングの一種を可能にし、ネットワークが適切な学習能力を獲得するのに役立ちます。 研究チームは、このアプローチを評価するために、人間の行動実験を実施しました。人間のような一般化の重要な要素である柔軟性と体系性のバランスが最も良いと思われる7つの異なるモデルを評価しました。その結果、MLCは、過剰に柔軟で体系的でないニューラルネットワークに依存することなく、厳密に体系的であるが剛直な確率的記号モデルを強制することもありませんでした。 MLCの特に素晴らしいところは、複雑な特殊なニューラルネットワークのトポロジーを必要としないということです。代わりに、通常のニューラルネットワークを構成スキル向けに最適化します。このヘッドツーヘッドの比較では、MLCを搭載したネットワークは、人間の体系的な一般化を非常によく模倣しました。 結論として、MLCは、機械が言語と推論の面で人間のような体系性を獲得できることを証明することで、様々な認知活動(問題解決、創造思考、自然言語処理など)の向上に向けて、機械学習システムが人間の体系的な能力を模倣できる可能性を示しています。このブレイクスルーは、人間の認知の体系性を真に理解し再現するだけでなく、機械により人間をより近づけることで、人工知能の分野を革新する潜在能力を秘めています。

Find the right Blockchain Investment for you

Web 3.0 is coming, whether buy Coins, NFTs or just Coding, everyone can participate.

Advertising with us