Learn more about Search Results A - Page 599

ビデオゲームのGPUが人工知能の発展につながった方法

ビデオゲームと人工知能には長い歴史がありますほとんどの人が、AIがビデオゲームを攻略したり、人間のプレイヤーと競い合ったり、強化学習のアルゴリズムのトレーニングに使われたりすることを知っているでしょうしかし、ハードウェアの側面についてはあまり知られていませんでは、どのように...

初心者のための畳込みニューラルネットワーク

「私はこの投稿を書いたのは、私がInterview Kickstartで行った講義の準備の一環としてでしたその講義は、トップのテック企業での仕事を得るためにプロフェッショナルを準備するためのものですもし現在準備中の方がいらっしゃるのであれば...」

「初心者のためのイメージ分類」

「イメージ分類は、トップテック企業での就職に向けてプロフェッショナルを準備するために、私がInterview Kickstartで最初に教えたトピックですこの投稿は、私が講義の準備をしていたときに書きました...」

K-平均クラスタリングのためのワンストップショップ

K-Meansクラスタリングは、非監視学習アルゴリズムであり、私たちが似たようなデータポイントをクラスターにまとめるのを助けますこれらのクラスターは、

「データ統合の未来のトレンド」

クラウドソリューションやリアルタイム分析から機械学習まで、データ統合の将来を探求するこの進化する風景で、適応性が鍵となる

9/10から15/10までの週のトップ重要なコンピュータビジョン論文

『週ごとに、いくつかのトップレベルの学術会議やジャーナルで画像などのコンピュータビジョンの革新的な研究が紹介され、さまざまなサブフィールドでのエキサイティングなブレークスルーが発表されました...』

ユニバーサルシミュレータ(UniSim)をご紹介します:生成モデリングを通じたリアルワールドの対話をインタラクティブにシミュレートするシミュレータ

生成モデルは、テキスト、画像、動画のコンテンツ作成を変革しました。次のフロンティアは、人間とエージェントのアクションによって引き起こされる現実的な体験をシミュレートすることです。そのために、ユニバーサルシミュレーターであるUniSimが探求されています。 UniSimは、さまざまな側面を捉える異なるデータセットを活用し、高レベルの命令および低レベルの制御に応じたビジョンの結果をシミュレートすることにより、人間とエージェントが世界との相互作用する方法をエミュレートすることができます。 UniSimは、具現化エージェントのトレーニングからシミュレートされた経験を通じてビデオキャプショニングモデルを高めるまで、さまざまなアプリケーションを提供します。 UCバークレー、Google DeepMind、MIT、およびアルバータ大学の研究者は、インターネットスケールの生成モデルの成功をテキストベースのタスクを超えて拡大することで、実世界の相互作用に対する世界モデルの開発の課題に取り組んでいます。これまでの研究はドメイン固有のビデオ生成に焦点を当ててきましたが、この研究はインタラクティブなエージェントトレーニングのためのユニバーサルシミュレーターの概念を先駆けたものです。これらのシミュレーターを介して広範な環境アクセスを可能にすることで、マルチターンの相互作用のためのエージェントの能力を向上させ、ビジョン言語プランナーや強化学習ポリシーなどのさまざまなエージェントにも恩恵をもたらすことを目指しています。 生成モデルは、コンテンツ作成を革新しましたが、現実世界の経験をシミュレートするのには助けが必要です。 UniSimは、さまざまなデータセットを活用して、高レベルの命令から低レベルの制御まで、人間の相互作用のさまざまな側面に影響を与えることができます。目標は、エージェントと機械インテリジェンスモデルをシミュレーションだけでトレーニングし、シミュレーションから実世界のアプリケーションへのゼロショット転送を実現し、シミュレーションから現実のギャップを埋めることです。 UniSimは、現実世界の相互作用のさまざまな側面を包括するデータセットを利用しています。使用されるデータセットには、豊富なオブジェクトを含む画像データ、ロボットデータからの密なアクション、およびナビゲーションデータ内のさまざまな動きがあります。 UniSimは、静的なシーンとオブジェクト内で、高レベルの命令と低レベルの制御に基づいてビジュアルの結果をシミュレートする方法を学習します。彼らの研究は、初期化と行動クローニングの目的を持つ強化学習ポリシートレーニングプロセスを概説しています。 彼らの研究は、UniSimがシミュレーションだけで完全にトレーニングされた高レベルのビジョン言語プランナーや低レベルの強化学習ポリシーのためのゼロショット実世界転送を容易にする能力を強調しています。そのようなトレーニングにより、ビデオキャプショニングモデルなどの他の機械インテリジェンスモデルも恩恵を受けており、その応用範囲が広がっています。 UniSimの生成された長期データは、ビジョン言語モデル(VLM)ポリシーのパフォーマンスを大幅に向上させ、目標条件付きタスクの完了率を短期トレーニングデータと比較して3〜4倍高くすることができます。 彼らの研究では、UniSimは他の現代の基礎モデルと同様に、膨大な計算リソースが必要です。ただし、具体的な技術的制約について詳しく説明した情報は十分に提供されておらず、トレーニングデータセットにおける潜在的なバイアスについての洞察も限られています。彼らの研究は、機械インテリジェンストレーニングにおけるシミュレートされた経験の倫理的な考慮事項については言及していません。 彼らの研究は、生成モデリングを通じて現実的な現実世界の相互作用のためのユニバーサルシミュレーターを作成するUniSimのポテンシャルを示しています。UniSimはさまざまな体験をシミュレートし、自律エージェントを効果的にトレーニングすることができます。高レベルのビジョン言語プランナーや低レベルの強化学習ポリシーへのゼロショット転送を可能にするだけでなく、ビデオキャプショニングなどの他の機械インテリジェンスモデルもUniSimのトレーニングを受けて恩恵を受けます。 UniSimの長期データは、ゴール条件付きタスクにおいて、VLMのパフォーマンスを大幅に向上させます。 将来の研究では、UniSimのさまざまな領域への適応性を向上させ、データセットのバイアスの可能性に取り組む必要があります。機械学習におけるシミュレートされた経験の倫理的な影響と意図しない結果を十分に探究する必要があります。UniSimの詳細で包括的なトレーニング方法を開発し、その技術的制約と課題についての深い理解を得る必要があります。アクション豊富な相互作用および現実のシミュレーターでの長期展望のための代替手法も調査することで、UniSimの機能を向上させることができます。

「Python を使用した簡単な株式トレーディングアルゴリズムの構築と検証」

イントロダクション アルゴリズムトレーディングは広く受け入れられているトレーディング戦略であり、株式取引の方法を革新しました。ますます多くの人々が株式に投資し、トレーディング戦略を自動化して副収入を得ています。このチュートリアルでは、MACD、SMA、EMAなどの基本的なテクニカルインジケータを使用して株式取引アルゴリズムを構築し、実際のパフォーマンス/リターンに基づいて最適な戦略を選択する方法をPythonを使用して完全に学習します。 学習目標 アルゴリズムトレーディングとは何かを知る。 テクニカルインジケータを使用してPythonで簡単な株式取引アルゴリズムを構築し、買い注文と売り注文のシグナルを生成する方法を学ぶ。 取引戦略を実装し、Pythonで自動化する方法を学ぶ。 平均リターンに基づいて最適な取引戦略を比較・選択する方法を学ぶ。 この記事はデータサイエンスブログマラソンの一環として公開されました。 免責事項 – これは金融アドバイスではありません。このプロジェクトで行われるすべての作業は教育目的であります。 アルゴリズムトレーディングとは何ですか? アルゴリズムトレーディングは、予め定義されたルールと戦略に基づいて自動化されたコンピュータプログラムを使用して金融資産を取引する方法です。これには、統計的アービトラージ、トレンドフォロー、平均回帰など、さまざまな取引戦略が含まれます。 アルゴリズムトレーディングにはさまざまなタイプがあります。その一つがハイフリクエンシートレーディングであり、小さな価格変動を利用するためのほとんど遅延のない高速取引を行います。もう一つがニュースベースのトレーディングであり、ニュースや他の市場イベントに基づいて取引を行います。 この記事では、テクニカルインジケータとローソク足パターン検出を使用してPythonを使用して株式取引を行います。 Pythonアルゴリズムを使用した株式取引の分析方法 Pythonを使用して株価を分析し、トレンドを把握し、取引戦略を開発し、シグナルを設定して株式取引を自動化することができます!Pythonを使用したアルゴリズムトレーディングのプロセスには、データベースの選択、特定のライブラリのインストール、歴史的データの抽出など、いくつかのステップがあります。それぞれのステップを詳しく説明し、簡単な株式取引アルゴリズムを構築する方法を学びましょう。 データセットの選択 公開されている株式は何千もあり、アルゴリズムを構築するために任意の株式セットを考慮できます。ただし、基本的な要素やテクニカルが比較可能である類似の株式を考慮することは常に良い選択肢です。 この記事では、Nifty 50株を考慮します。Nifty 50指数には、時価総額、流動性、セクターの代表性、財務パフォーマンスなどのさまざまな要素に基づいて選ばれたインドのトップ50の企業が含まれています。この指数はインド株式市場のパフォーマンスを測定するためのベンチマークとして広く使用されており、小型株や中型株に投資する場合と比較して、これらの企業に投資する際のリスクは少なくなります。この記事では、分析のためにWIPROを考慮します。この記事で説明される分析アプローチは、forループ内で各株の関数を呼び出すことによって、類似の株式セットで実行できます。 必要なライブラリのインストール パンダ、ナンパイ、マットプロットリブと共にyfinanceとpandas_taなどのデフォルトのライブラリを使用します。…

「切り分けて学ぶ」による機械学習におけるオブジェクトの状態合成の認識と生成

現実世界には、さまざまなサイズ、色合い、質感を持つ物体が存在します。視覚的な特性、一般的には状態や属性と呼ばれるものは、アイテム自体に備わったもの(色など)または処理によって獲得されるもの(切られた状態など)です。現在のデータ駆動型の認識モデル(例:ディープニューラルネットワーク)は包括的なオブジェクト属性のためのロバストなトレーニングデータが利用可能と前提としていますが、未知のオブジェクトの特性に対しても一般化するための支援が必要です。しかし、人間や他の動物は、少数の既知のアイテムとその状態を組み合わせることで、さまざまな特性を持つ多様なものを認識し、イメージできる組み込み能力を持っています。近代のディープラーニングモデルは、より構成性のある一般化と、有限の概念からの新しい組み合わせの合成と検出能力を頻繁に必要としています。 構成的な一般化の研究を支援するために、メリーランド大学の研究者らは新たなデータセット「Chop & Learn (ChopNLearn)」を提案しています。彼らは構成要素に焦点を当てるため、果物や野菜の切り方に制限を設けています。これらのアイテムは、切り方の方法によってさまざまな方法で形状が変わります。目的は、直接の観察なしでオブジェクトの状態を認識するさまざまなアプローチがどのように異なるオブジェクトに適用できるかを調べることです。彼らが選んだ20のアイテムと7つの典型的な切り方(完全なオブジェクトを含む)により、状態対象の組み合わせの粒度とサイズが異なります。 第1のタスクでは、トレーニング中に遭遇していない(オブジェクト、状態)の組み合わせから画像を生成するシステムが必要です。この目的のため、研究者は既存の大規模テキストから画像を生成するモデルを修正することを提案しています。彼らは、テキストプロンプトを使用してオブジェクトの状態生成を表現するために、Textual InversionやDreamBoothなどのさまざまな既存のアプローチを比較しています。さらに、言語と拡散モデルの同時調整に加えて、オブジェクトと状態の追加トークンの追加を含む異なるプロセスを提案しています。最後に、提案された生成モデルと既存の文献の強みと弱点を評価しています。 第2のチャレンジでは、既存の構成的アクション認識のタスクが拡張されています。これは、活動の認識のための重要な初期ステップであるオブジェクトの状態の微小な変化を認識することを目的としていますが、過去の研究では映画の長期間の活動追跡に重点が置かれてきました。このタスクでは、モデルがタスクの開始時と終了時の状態の組み合わせを認識することによって、肉眼では見えないオブジェクトの状態の変化を学習することができます。ChopNLearnデータセットを使用して、彼らは動画タスクのためのいくつかの最新のベースラインを比較しています。研究は、データセットの利用によって利益をもたらす可能性のある多くの画像およびビデオ関連の機能について議論を終えます。 以下にいくつかの貢献を紹介します: 提案されたChopNLearnデータセットには、さまざまなカメラアングルからの写真や映画が含まれます。これはさまざまなオブジェクト状態の組み合わせを表します。 現在ユーザーには見えていないオブジェクトと状態の組み合わせの画像を生成するための新しいアクティビティ「構成的な画像生成」を提供します。 構成的なアクション全体としての新たな基準を設定します。これはオブジェクトが時間と多様な視点でどのように変化するかを学習し認識することを目指しています。 制限事項 ファウショット一般化は、基盤モデルが利用可能になるにつれてますます重要になっています。この研究では、ChopNLearnのポテンシャルを構成的な生成と非常に複雑で関連性のある概念の識別に使用するための調査が行われました。ChopNLearnは、それにトレーニングされたモデルの一般性を制限するグリーンスクリーンの背景で行われた小規模なデータセットです。しかしながら、これは異なるオブジェクトが共通の微細な状態(切り方)を共有する方法を学習するための最初の試みです。彼らは、ChopNLearnを使用してより複雑なモデルをトレーニングおよびテストし、同じツールを使用してグリーンスクリーンの背景のある場合とない場合のモデルを微調整することによって、これを調査しています。さらに、彼らは、3D再構築、ビデオフレーム補間、状態変化の作成などのより困難なタスクにChopNLearnを利用することでコミュニティが利益を受けることを期待しています。 詳細については、https://chopnlearn.github.io/をご覧ください。 まとめると 研究者は、オブジェクトの構成的な一般化またはモデルが異なる状態で見たことのないオブジェクトの組み合わせを検出して構築する能力を測定するための新しいデータセットChopNLearnを提供しています。さらに、既存の生成モデルやビデオ認識技術の効果を評価するための2つの新しいタスク「構成的な画像生成」と「構成的なアクション認識」を提示しています。彼らは現在の方法の問題と新しい組み合わせに対する限定的な一般化能力を説明しています。しかし、これらの2つの活動は、比喩的な氷山の一部にすぎません。オブジェクトの状態を理解するためには、3D再構築、将来のフレーム予測、ビデオ製作、要約、長期ビデオの解析など、複数の画像およびビデオのアクティビティが必要です。このデータセットにより、研究者はコンピュータビジョンコミュニティが提案することで学習するための新しい構成的な課題が生まれることを期待しています。

Find the right Blockchain Investment for you

Web 3.0 is coming, whether buy Coins, NFTs or just Coding, everyone can participate.

Advertising with us