Learn more about Search Results 調査 - Page 12

新しいCMUとMetaによるAI研究、PyNeRFの導入:スケールに意識したグリッドベースのレンダリングにおけるニューラル輝度場の進化

ニューラル・ラディアンス・フィールド(NeRF)は、シーン再構成時のスケールの変動とエイリアシングのアーティファクトを減らすためにどのように改善できるのでしょうか? CMUとMetaからの新しい研究論文では、ピラミッド状のニューラル・ラディアンス・フィールド(PyNeRF:Pyramidal Neural Radiance Fields)を提案することで、この問題に取り組んでいます。PyNeRFは、異なる空間グリッド解像度でモデルヘッドを訓練することにより、さまざまなカメラ距離でシーンを再構成する際に生じる視覚的な歪みを軽減するのに役立ちます。PyNeRFはパフォーマンスに大きな影響を与えることなく、NeRFを高速化しながら高品質のシーン再構成を維持する効果的な解決策です。 NeRFに触発されて、この研究ではボクセルグリッドやテンソル近似を使用して描画速度とメモリ効率を向上させるためのグリッドベースの手法(NSVF、Plenoxels、DVGO、TensoRF、K-Planes、Instant-NGP)を探求しています。PyNeRFは、速度の利点と品質の維持を兼ね備え、Instant-NGPやNerfactoなどの他の高速描画手法を凌駕し、描画品質とトレーニング速度で優れた結果を示します。 Nerfを含む最近のニューラルボリューメトリックレンダリングの進歩は、現実的な視点合成の進展をもたらしています。ただし、NeRFはMLP表現と仮定により遅いため、エイリアシングが発生します。Mip-NeRFなどのグリッドベースの手法はトレーニングを加速しますが、位置符号化との互換性に欠けます。PyNeRFは、分割と征服のNeRF拡張と古典的な技術からインスピレーションを受けています。PyNeRFのモデルピラミッドはレイに沿ってサンプリングされ、分割アプローチが採用されることにより、高速化されたNeRF実装の速度を維持しながら、描画品質が改善されます。効率的かつ高品質な新しい視点合成のための幅広い解決策を提供します。 研究では、より大きなボリュームサンプルの描画に向けて、グリッドベースのモデルを修正し、異なる空間グリッド解像度でモデルヘッドを訓練することを提案しています。バックボーンモデルとしてSUDSを使用し、徐々により高い解像度でトレーニングします。学習した特徴をボクセルグリッドやハッシュテーブルなどの構造に保存するさまざまなグリッドベースの加速手法について議論されています。研究者は、LaplacianPyNeRFや他の補間手法と比較して、特徴グリッドの再利用と2Dピクセル領域の使用の影響を評価しています。主な貢献は、既存のグリッド描画手法において描画速度を保持しながら視覚的な忠実度を向上させる多目的の分割手法です。 PyNeRFは、合成と実世界のシーンにおいて誤差率を20〜90%低下させ、パフォーマンスへの影響を最小限に抑えることで描画品質を大幅に向上させます。Mip-NeRFと比較して、トレーニング速度が60倍速い状態で誤差を20%削減します。PyNeRFは2時間でSUDS品質に収束し、さまざまなメトリックでベースラインを凌駕しますが、SUDSには4時間かかります。さまざまな合成およびマルチスケールブレンダーデータセットでのテストと評価によって、PyNeRFの高品質な再構築はArgoverse 2 Sensorデータセットでの評価に証明されています。 まとめると、PyNeRFは高速ボリューメトリックレンダラーのアンチエイリアシング機能の向上において印象的な進展を示し、さまざまなデータセットで優れた結果を示しています。この手法は、現実世界のキャプチャを共有することでニューラルボリューメトリックレンダリングの研究を更に進めることを提唱していますが、高品質なニューラル表現の効率的な構築におけるセキュリティとプライバシーのリスクにも言及しています。 今後の研究は、追加の実世界のキャプチャの共有や統合ボリュームを階層レベルに割り当てるための代替マッピング関数の探求から利益を得ることができるでしょう。モデルのトレーニング中にプライバシーフィルタリングのためにセマンティック情報を使用することも有益な調査方向です。将来の興味深い展望には、高速なNeRF手法において描画速度を保持しながら視覚的な忠実度を向上させるためのアーキテクチャのさらなる探求が含まれます。潜在的な研究領域には、ピラミッドアプローチを他の高速NeRF実装に適用し、そのパフォーマンスを評価することがあります。

「自律AIエージェントを使用してタスクを自動化するための10の方法」

はじめに テクノロジーのダイナミックな風景の中で、自律型AIエージェントは変革的な存在として登場し、データと人工知能とのやり取りの方法を変えつつあります。この魅力的な領域に深入りするにつれて、これらのエージェントが単なるプログラム以上のものであり、私たちの日常生活におけるAIの統合においてパラダイムシフトを表していることが明らかになります。本記事では、現在利用可能な最も優れた自律型AIエージェントの中から10つを紹介します。これらのAIエージェントがあなたに何ができるのか、さらに詳しく知るために読み続けてください。 自律型AIエージェントとは何ですか? 自律型AIエージェントは、持続的な人間の介在なしにタスクを実行するために独立して動作する高度な人工知能システムです。これらのエージェントは、機械学習と自動化を活用して、異なる領域でタスクの分析、学習、および実行を行います。単純なタスク自動化ツールから、自然言語の理解、意思決定、および新しい情報への適応能力を持つ洗練されたシステムまで、さまざまな範囲のエージェントが存在します。自律型AIエージェントは、技術がさまざまな日常タスクとの相互作用を革新する上で重要な役割を果たしています。 自律型AIエージェントはどのように動作するのですか? 自律型AIエージェントが具体的に何をするか、またどのようにしてタスクを自己で実行できるのかを疑問に思っていましたか?これらの高度なAIモデルは、複雑な指示や目標をより小さな、シンプルなタスクに分解し、構造化されたプロセスでそれらを実行するように設計されています。また、特定のタスクの自動化やループでの操作も可能です。以下は、ほとんどの自律型AIエージェントの基本的なワークフローです。 タスクの定義:まず、AIエージェントが明確な指示、締切、および優先順位を持つタスクを作成します。 タスクの優先順位付け:次に、緊急性と重要性に基づいてタスクの優先順位を付けるためにAIアルゴリズムを使用します。 タスクを自動化:重複するタスクを効率的に実行するために、それらをAIモデルに委任します。 進捗の監視:プロセスの設定とタスクの実行後、これらのタスクの進捗状況を追跡し、リアルタイムで更新を受け取ります。 相互作用:これらのエージェントは、自然言語のコマンドを使用して簡単にタスクを作成、変更、管理することもできます。 トップ自律型AIエージェント 以下に、10の最も優れた自律型AIエージェントとそれぞれの説明、利点、および具体例をご紹介します。 1. AgentGPT AgentGPTは、多機能でカスタマイズ可能なオープンソースの自律エージェントです。旅行の計画、メールの作成、クリエイティブなテキスト形式の生成など、幅広いタスクを実行することができ、さらに追加の機能や機能を追加することでカスタマイズすることができます。AgentGPTは、名前と目標を追加し、展開ボタンをクリックするだけで使用することができ、コーディングは不要です。複雑なタスクをより小さなサブタスクに分解し、最小限の人間の関与で主目標を達成するために反復的なプロンプトを使用します。 利点 時間と労力を節約:AgentGPTは、あなたがたくさんの時間と労力を要するタスクを自動化することができます。 生産性の向上:タスクの自動化により、重要なことに集中するために時間を確保することができます。 楽しむ時間を増やす:退屈でつまらないタスクを自動化することにより、楽しい時間を過ごすことができます。 より創造的になる:新しいアイデアや可能性を生成することによって、より創造的になることができます。 具体例 ハワイ旅行の計画:AgentGPTは、フライト、宿泊施設、アクティビティなど、詳細なハワイ旅行を計画するのに役立ちます。 メールの作成:件名、本文、署名を含めたメールの作成をサポートします。…

エンターテイメントデータサイエンス:ストリーミングvs劇場

「トゥワード・データ・サイエンスの私の次のエンターテイメント・データ・サイエンス記事では、データ・サイエンスがコンテンツのライフサイクルのさまざまな段階で適用できることを紹介していますグリーンライトから製作まで...」

「Pythonで脂肪尾を数値化する4つの方法」

「これはパワーロウとファットテールに関するシリーズの三番目の記事です前回の記事では、実証データからパワーロウを検出する方法について探求しましたこの技術は便利ですが、ファットテールはさらなる調査が必要です...」

「Q*とLVM LLMのAGIの進化」

「Q*とLVMによるAIの未来を探求し、論理的な推論とビジョンAIのためのLLMを高度化させて、AGIへの道を開拓してください」

ピーター・マッキー、Sonarの開発者担当責任者-インタビューシリーズ

ピーター・マッキーはSonarのDeveloper Relationsの責任者です Sonarは、悪いコードの1兆ドルの課題を解決するプラットフォームであり、開発者や組織にクリーンなコードの状態を体系的に達成し、すべてのコードが開発と生産に適している状態にするための装備を提供します SonarのClean as You Codeの手法を適用することにより、組織はリスクを最小限に抑え、[…]

「エンタープライズサービスマネジメントがAIを活用したチームを実現する」

あなたの従業員はおそらくロボットのような感じがするでしょう私たちの仕事をするために使用するさまざまなアプリケーションやテクノロジーのアラートの連続で、ますますネットワーク化され常にオンになっている世界に追いつこうとするだけでも、終わりのない電話、メール、テキスト、Slackメッセージなどが押し寄せます私たちのチームは今まで以上につながっています[...]

グラフ、分析、そして生成AI グラフニュースレターの年

グラフ、分析、および生成AIグラフとAIが結びつくさまざまな方法と、業界と研究のニュースについての説明

「データについての厳しい質問に答える必要があるとき、人間が行動する必要がある」

データサイエンスと機械学習の専門家は、データの中から答えを見つける方法を知っていますそれが彼らの仕事の中心的な柱ですしかし、いくつかの難しい問題を見ると、状況は少し複雑になります...

このAI研究は、大規模言語モデルにおける不誠実さのメカニズムを明らかにする:プロンプトエンジニアリングとニューラルネットワーク分析に深く没入する

大規模な言語モデル(LLM)の理解とその正直な行動の促進は、これらのモデルが成長し、社会に広く受け入れられるようになったため、ますます重要となっています。研究者らは、スケーラブルなディスインフォメーション、操作、詐欺、選挙の妨害、またはコントロールの喪失のリスクなど、モデルが欺瞞的になる可能性から新たなリスクが生じると指摘しています。彼らはこの欺瞞を「真実以外の特定の結果を追求するための虚偽の信念の系統的な誘導」と定義しています。研究によると、これらのモデルの活性化には必要な情報があるにもかかわらず、正しい結果を出すためにはミスアライメント以上のものが必要かもしれません。 以前の研究では、真実と誠実さを区別し、前者は誤った主張を避ける一方、後者は信じていない主張を避けると述べています。この区別は理解を助けるのに役立ちます。したがって、モデルが誤解を招く主張を生成する場合、その原因はスキルの欠如ではなく、不誠実さによるミスアライメントによるものかもしれません。その後、いくつかの研究では、内部モデル表現の抽出の改善を図るため、モデルに積極的な概念を考慮させるようにするためのブラックボックス技術の提案が行われています。 さらに、モデルは文脈に従った環境で「重要な」中間層を持っており、これを超えて文脈に従った真実または誤った応答の表現は分岐する傾向があります。これを「過剰に考える」という現象として知られています。先行研究に刺激を受けて、研究者たちは不正確な文脈学習から故意の不誠実さに焦点を広げ、モデルにウソをつくように明示的に指示を与えることでこの文脈での不誠実さに責任があるモデルのどの層と注意ヘッドがあるのかを特定して理解しようとしています。 以下に彼らの貢献を示します: 1. 研究チームは、真偽の質問でかなり下回る精度に基づいて、LLaMA-2-70b-chatが嘘をつくように訓練できることを示しています。研究チームによれば、これは非常に微妙で、注意深く迅速に設計する必要があります。 2. activation patchingおよびprobingを使用して、研究チームは不正行動に関連する5つのモデル層に独立した証拠を見つけました。 3. 0.9%の全ヘッドに対して誘因介入が効果的に行われ、研究チームが欺瞞的なモデルに真実を返すように強制しました。これらの処理は、複数のデータセットの分割や提示に対して弾力的です。 要するに、研究チームは、真実を言うかどうかについてLLMに指示を与えるという単純な嘘の事例を考察しました。その結果、巨大なモデルでも不正行動が表示され、正直に回答するように求められた場合には正しい回答が生成され、ウソをつくように追い込まれると誤った回答が生成されることがわかりました。これらの調査結果は、活性化探索がプロンプトでの分布外にも一般化できる可能性があることを示唆する以前の研究に基づいています。しかし、研究チームは、これがモデルが「真」トークンよりも早く「偽」トークンを出力する傾向にあるといった問題により、プロンプトのエンジニアリングに長い時間が必要になる場合があることも発見しました。 研究チームは、接頭辞の挿入により、一貫して嘘を引き起こすことができました。その後、チームは不誠実なモデルと誠実なモデルの活性化を比較し、嘘をつくために関与する層と注意ヘッドを特定しました。研究チームは、この嘘の行動を調査するために線形プローブを使用することで、初めから中間層が誠実なプロンプトとウソつきプロンプトに対して類似のモデル表現を示し、それから急激に反対向きに分岐することを発見しました。これは、文献の一部が求めるように、以前の層が文脈非依存の真実の表現を持つべきであることを示しているかもしれません。また、activation patchingは、特定の層とヘッドの動作についてさらに理解するために研究チームが使用した別のツールです。研究者たちは、局所的な介入が正直なプロンプトおよびウソつきモデル間のミスマッチを完全に解決できることを発見しました。 重要なのは、わずか46の注意ヘッドに対するこれらの介入が、データセットやプロンプトに対して強固な耐性を示していることです。研究チームは、モデルがデフォルトで誠実なモデルの正確性と誠実さを主に調査してきた以前の研究とは対照的に、アクセス可能なデータセットを使用し、明示的にモデルに嘘をつくように指示することで嘘を重点的に研究しています。この文脈によって、研究者たちは不正な行動を促進する微妙な点や大規模モデルがどのように不誠実な行動に関与しているかについて多くの知識を得ることができました。研究チームは、LLMの倫理的かつ安全な応用を保証するために、この文脈でのさらなる研究がLLMの嘘つきを防止する新しいアプローチにつながると期待しています。

Find the right Blockchain Investment for you

Web 3.0 is coming, whether buy Coins, NFTs or just Coding, everyone can participate.

Advertising with us