Learn more about Search Results OPT - Page 43

「サンゴ礁の衰退を転換する:CUREEロボットが深海にディープラーニングでダイブする」

研究者たちは、深層学習を文字通りに深く掘り下げています。 ウッズホール海洋研究所(WHOI)の自律型ロボットおよび知覚ラボ(WARPLab)とMITは、珊瑚礁とその生態系の研究のためのロボットを開発しています。 世界最大の民間海洋研究機関の努力であるWARPLabの自律型水中無人機(AUV)は、NVIDIA Jetson Orin NXモジュールによって可能にされ、珊瑚礁の衰退に歯止めをかけることを目指しています。 世界中の珊瑚礁の25%が過去30年間で消滅し、残りのほとんどの珊瑚礁も絶滅の危機に直面していると、WHOI Reef Solutions Initiativeは述べています。 AUV(興味津々の海中エコシステム探査用水中ロボット)と名付けられたCUREEは、ダイバーと一緒にビジュアル、音声、および他の環境データを収集し、珊瑚礁とその周りの海洋生物への人間の影響を理解するのに役立ちます。このロボットは、珊瑚礁の3Dモデルを構築し、生物や植物を追跡するためにNVIDIA Jetson対応のエッジAIの拡張コレクションを実行します。また、自律的にナビゲートし、データを収集するモデルも実行します。 1986年にはじめてタイタニックを探査したWHOIは、CUREEロボットをデータ収集のために開発し、対策に協力します。この海洋研究機関は、シミュレーションおよびデジタルツインの使用も検討しており、3Dツールとアプリケーションを構築および接続する開発プラットフォームであるNVIDIA Omniverseなどの解決策を調査しています。 NVIDIAはOmniverseで地球のデジタルツインを作成し、気候変動を予測するための世界で最もパワフルなAIスーパーコンピュータを開発しています。それはEarth-2と呼ばれています。 水中AI:DeepSeeColorモデル シュノーケリングをしたことのある人なら、水中の視界は陸上と比べて明確ではないことを知っています。水中では、太陽からの可視光スペクトルが距離によって減衰し、一部の色が他の色よりも抑制されます。同時に、水中の微粒子によって、バックスキャッタと呼ばれる朦朧とした視界が生じます。 WARPLabのチームは最近、これらの問題を軽減し、CUREEの作業をサポートする海中ビジョン補正に関する研究論文を発表しました。この論文では、DeepSeeColorと呼ばれるモデルを使用して、2つの畳み込みニューラルネットワークのシーケンスを実行し、水中でリアルタイムにバックスキャッタを低減し、色を補正します(NVIDIA Jetson Orin NX上で)。 「NVIDIAのGPUは、大部分のパイプラインで使用されています。画像が入ってくると、DeepSeeColorを使用して色補正を行い、魚の検出を行い、それを船上の科学者に送信できます」と、MITのロボティクス博士候補であり、WARPLabのAI開発者であるスチュワート・ジェミーソン氏は述べています。 目と耳:魚と珊瑚の検出 CUREEには、前方を向いたカメラ4台、水中音声キャプチャのための水中マイク4台、深度センサー、慣性計測ユニットセンサーが搭載されています。水中でのGPSは機能しないため、水上にある間にロボットの開始位置を初期化するためにのみ使用されます。…

PEFTの概要:最先端のパラメータ効率の良い微調整の概要

「LoRAなどのパラメーター効率の高いファインチューニングテクニックを学んで、限られた計算リソースを使って大規模な言語モデルを効率的に適応させる方法を習得しましょう」

「助成金交付における有望なプロジェクトの特定に予測分析を活用するための7つの手順」

「予測分析は、特に助成金の分野におけるデータ駆動型意思決定において、急速に不可欠な存在となりつつあります予測分析は統計学的アルゴリズムや機械学習技術を用いて、過去のデータを分析し将来の結果を予測します予測分析を助成金に適用することで、精度が向上し競争力が増します最も...」

「GANが人工的なセレブリティのアイデンティティを作り出す方法」

イントロダクション 人工知能の時代において、驚くべき現象が展開されています――生成対抗ネットワーク(GAN)が創造的に人工的なセレブリティのアイデンティティを作り出しています。このテクノロジーと創造性の興味深い融合により、完全に新しいタイプのデジタルセレブリティが生まれました。私たちと一緒に、仮想世界を魅了する人工的なセレブリティパーソナリティの創造の魔法を紐解いていく興味深い旅に出かけましょう。GAN の世界に飛び込み、このデジタル芸術の秘密を探求しましょう。どのようにしてGANがこれを実現するのでしょうか?このデジタルアートの裏に隠された秘密を探求しましょう。 出典: Hello Future 学習目標 この記事では、以下のことを学びます。 生成対抗ネットワーク(GAN)の概念 ジェネレーターとディスクリミネーターの訓練方法 GANモデルの実装のステップバイステッププロセス 敵対的なトレーニングを通じてGANが時間とともに改善する仕組み この記事は、データサイエンスブログマラソンの一環として公開されました。 生成対抗ネットワーク(GAN) 生成対抗ネットワーク(GAN)は、Goodfellowによって開発された深層学習モデルです。その名前からも、GANの目的を理解することができます。そうです!私たちは生成の目的でそれを使用します。GANは何かを生成するネットワークです。画像、テキスト、音声など、現実世界のデータに似た合成データを生成するためにGANを使用します。GANは2つのニューラルネットワークから構成されています。これらはジェネレーターとディスクリミネーターと呼ばれます。トレーニング中、この2つのネットワークはお互いに競い合いながらより良い性能を発揮するように訓練されます。 ジェネレーターとは? ジェネレーターは、生成を担当するニューラルネットワークです。出力をするためには入力が必要です。ジェネレーターが受け取る入力はランダムなノイズです。ジェネレーターはこのランダムなノイズを受け取り、実データに似た出力を生成しようとします。ディスクリミネーターからフィードバックを受け取るたびに、ジェネレーターは自己改善し、次回はより良いデータを生成します。たとえば、画像生成の場合、ジェネレーターは画像を生成します。トレーニングを通じてジェネレーターが改善するにつれ、最初はランダムなノイズから始まり、次第に出力を洗練させてより現実的になります。最初の試行では、元のデータに最も似たものを生成することができないかもしれません。時にはまったく画像ではないものさえ生成することもあります。トレーニングが進むにつれ、より正確な良質なデータが生成されます。 ディスクリミネーターとは? ディスクリミネーターは、評価を担当するニューラルネットワークです。簡単に理解するために、それを探偵と呼ぶことができます。このディスクリミネーターは、実際のデータとジェネレーターによって生成された偽のデータの両方を受け取ります。偽のデータを実データと区別する必要があります。簡単に言えば、実際のデータと偽のデータを分類するということです。ジェネレーターと同様に、トレーニングが進むとディスクリミネーターもより優れた判別ができるようになります。最初の試みでは最高の結果を出せないかもしれませんが、トレーニングが進むにつれてより良い結果を出せるようになり、最終的にはほとんどの偽のデータを識別できるようになります。探偵のように働く必要があります。 敵対的トレーニング ジェネレーターとディスクリミネーターの両方が訓練を受け、これは敵対的トレーニングと呼ばれています。両者はお互いに競争的なトレーニングを行います。ジェネレーターが実データに似た偽のデータを生成し、ディスクリミネーターは偽のデータを識別しようとします。トレーニングプロセスの次のステップでは、ジェネレーターは自己改善を目指し、ディスクリミネーターを騙すための偽のデータを生成します。再びディスクリミネーターが偽のデータを検出します。このようにトレーニング中、両者はそれぞれのタスクでより良いパフォーマンスを発揮します。このプロセスは、ジェネレーターが非常に現実的なデータを生成し、ディスクリミネーターが本物と区別できなくなるまで続けられます。この段階でGANはある種の均衡状態に達し、生成されたデータは非常に実データに似ています。 “`html 実装 まず、必要なライブラリをすべてインポートしましょう。これには主にtorchモジュールが含まれます。可視化のためにmatplotlibを使用します。…

アマゾンセイジメーカーの地理情報能力を使用したメタン排出ポイント源の検出と高周波監視

メタン(CH4)は、石油やガス抽出、石炭採掘、大規模な畜産、廃棄物処理など、他のさまざまな源から発生する、主要な人為的温室効果ガスですCH4の地球温暖化潜在能はCO2の86倍であり、気候変動に関する政府間パネル(IPCC)は、メタンが観測されている温室効果の30%を担っていると推定しています

「次世代ニューラルネットワーク:NeurIPSでの多くのAIの技術進歩をNVIDIA Researchが発表」

世界中の学術機関と協力して、NVIDIAの研究者は< a href=”https://www.voagi.com/ai-for-sustainable-banking-reducing-carbon-footprints-and-promoting-ecofriendly-spending.html”>生成AI、ロボティクス、自然科学の進歩を推進しています – そしてこれらのプロジェクトの数は、ワールドトップのAIカンファレンスである< a href=”/?s=NeurIPS”>NeurIPSで共有されます。 ニューオーリンズで12月10日から16日に開催されるNeurIPSでは、生成AI、機械学習、コンピュータビジョンなどの専門家が集まります。 NVIDIA Researchが発表する革新の中には、テキストから画像への変換、写真から3Dアバターへの変換、専門のロボットをマルチタレントマシンに変換するための新しい技術が含まれています。 「NVIDIA Researchは、テキストから画像や音声へ変換する生成AIモデル、新しいタスクをより速く学習する自律AIエージェント、複雑な物理現象を計算するニューラルネットワークなど、この分野全体の進歩を推進し続けています」とNVIDIAの学習と知覚研究の副社長であるJan Kautzは述べています。「これらのプロジェクトは、主要な学界の第一人者との協力によって行われることが多く、仮想世界、シミュレーション、自律マシンの開発者を加速させるでしょう。」 イメージを追加: テキストからイメージ拡散モデルの改良 拡散モデルは、テキストをリアルなイメージに変換するための最も人気のあるタイプの生成AIモデルになっています。NVIDIAの研究者は、NeurIPSで発表される拡散モデルの進化を支える複数のプロジェクトで大学と協力しています。 オーラルプレゼンテーションとして受け入れられた論文は、テキストプロンプト内の修飾語と主要な実体の関連性を改善することに焦点を当てています。既存のテキストからイメージへのモデルが「黄色いトマト」と「赤いレモン」を描くように要求された場合、誤って黄色いレモンや赤いトマトの画像を生成することがありますが、新しいモデルはユーザーのプロンプトの構文を分析し、エンティティと修飾子の間の結びつきを促進して、より忠実な視覚的描写を提供します。 ポスターとして発表されるSceneScapeは、テキストプロンプトから3Dシーンの長いビデオを生成するための拡散モデルを使用した新しいフレームワークです。このプロジェクトでは、テキストからイメージのモデルとフレーム間の一貫性を保持するための深度予測モデルを組み合わせて、美術館、お化け屋敷、氷の城などのビデオを生成します(上の画像を参照)。 別のポスターでは、テキストからイメージのモデルがトレーニングデータにあまり出現しない概念を生成する方法を改良しています。このような画像を生成しようとする試みは通常、ユーザーのプロンプトとは完全に一致しない低品質のビジュアルに終わります。新しい手法では、モデルが指定された希少クラスから画像を生成するための良いシード10を認識するのに役立つ一連の例題画像を使用します。 3番目のポスターでは、テキストからイメージへの拡散モデルが、不完全なポイントクラウドのテキスト記述を使用して、不足している部分を生成し、物体の完全な3Dモデルを作成することができることを示しています。これは、ロボティクスや自律車両のAIアプリケーションのためのLidarスキャナーや他の深度センサーによって収集されたポイントクラウドデータを補完するのに役立ちます。収集されたイメージは一般的に不完全であるため、特定の角度から物体をスキャンしています。例えば、車に取り付けられたLidarセンサーは、道を車が走る間にそれぞれの建物の一方側のみをスキャンします。 キャラクターインプロvement: AIアバターの進歩 AIアバターは、複数の生成AIモデルを組み合わせて、仮想キャラクターを作成し、アニメーション化し、テキストを生成して音声に変換します。 NeurIPSのNVIDIAのポスターは、これらのタスクをより効率的にする新しい方法を提示します。…

「0人の従業員で250万ドルを稼ぐ(ジャスティン・ウェルシュのソロビジネスシステム)」

ジャスティン・ウェルシュは、自身の人生を丹念に作り上げ、スケジュールを緻密に調整し、システムを最適化して、年間250万ドルを自ら稼ぐようにしています

Note This translation conveys the same meaning as the original English phrase, which refers to going from a state of poverty to wealth.

大規模言語モデル(LLM)が世界中を席巻している中、ベクトル検索エンジンも同行していますベクトルデータベースは、LLMの長期記憶システムの基盤を形成しています...

「トップ5のクラウドマシンラーニングプラットフォームとツール」

「現在市場でトップ5のクラウド機械学習プラットフォームは何ですか当社のリストは、あなたの特定の機械学習ニーズに最適なプラットフォームをいくつか提案するための貴重な洞察を提供しますVoAGIが推奨するものをご覧ください」

LoftQをご紹介します:大規模言語モデルのためのLoRA(Fine-Tuning-Aware Quantization)

プリトレーニングされた言語モデル(PLM)の導入は、自然言語処理の分野において画期的な変革を示しています。プリトレーニングされたモデルは、自然言語理解(NLU)や自然言語生成(NLG)を含む幅広い言語タスクにおいて卓越した能力を示しています。これらのモデルは通常、数百万または数十億のパラメータを組み込んでおり、計算およびメモリの要件が大きくなっています。ただし、これらのモデルの計算およびメモリのニーズは、研究コミュニティに認識されているように、重要な課題を提起しています。 この論文で、著者たちは新しい量子化フレームワークであるLoRA-Fine-Tuning-aware Quantization (LoftQ)を紹介しています。このフレームワークは、量子化とLoRA微調整を必要とするプリトレーニングモデルに特化しています。このフレームワークは、元々の高精度のプリトレーニングウェイトを低ランク近似と組み合わせて近似的に表現することにより、効果的に機能します。 上記の画像は、QLoRAの異なるビットでのパフォーマンスを示しています。左:WikiText-2上のLLAMA-2-13bのQLoRA初期化。右:WikiText-2の言語モデリングタスクにおいてLLAMA-2-13bにQLoRAを適用。より小さい困惑度はより優れたパフォーマンスを示します。 量子化手法。LoftQがさまざまな量子化関数と互換性があることを示すために、2つの量子化手法を適用します: ・一様量子化は、古典的な量子化手法です。連続区間を均等に2N個に分割し、復元のために局所的な最大絶対値を格納します。 ・QLoRAで使用されるNF4とその2ビットバリアントNF2は、高精度の値がガウス分布に従っていると仮定し、これらの値を等しい確率を持つ離散スロットにマッピングします。 私たちは全モデルに2ビットおよび4ビットの量子化を行い、4ビットおよび2ビットレベルでそれぞれ25〜30%、15〜20%の圧縮率を達成しました。すべての実験はNVIDIA A100 GPUで実施されました。 彼らの量子化フレームワークの評価は、NLU、質問応答、要約、NLGを含むさまざまな下位タスクでの包括的な実験を通じて行われます。これらの実験の結果は、LoftQがすべての精度レベルにおいて常にQLoRAを上回っていることを示しています。たとえば、4ビット量子化では、XSumおよびCNN/DailyMailのRouge-1の改善がそれぞれ1.1と0.8であります。自然言語処理の分野が進歩し続けるにつれ、PLMの膨大な潜在能力とその実用的な展開との間のギャップを埋めるため、さらなる革新と最適化が期待されており、幅広いアプリケーションとユーザーに利益をもたらすでしょう。

Find the right Blockchain Investment for you

Web 3.0 is coming, whether buy Coins, NFTs or just Coding, everyone can participate.

Advertising with us