Learn more about Search Results Meg - Page 3

「OpenAI Dev Day 2023 創設者サム・オルトマンの基調講演からの4つの重要発表、見逃せません!」

「OpenAIによって初めて開催されたデベロッパーカンファレンスは、素晴らしい製品発表で満員御礼でしたさらに興味深いことに、これらの発表によって多くのAIスタートアップは完全に時代遅れになってしまいます…」

「信頼性のあるLLMテストの5つの柱」

「ハロウィーン、偏見、品質を含む責任あるAIの主要な柱を見つけ、特定の業界ニーズに合わせた信頼性のあるモデルを作成する際の課題は何かを発見してください」

「AIのトレーニングAI:ゲータートロングPTがフロリダ大学の医療AIのイノベーションの最前線に」

臨床データが少ない状況でAIに臨床言語を理解させるにはどうすればいいのでしょうか?別のAIを訓練して、訓練データを合成します。 人工知能は医学の方法を変えつつあり、様々な臨床業務にますます使われています。 これは生成AIやGatorTronGPTのようなモデルによって推進されています。GatorTronGPTはフロリダ大学のHiPerGator AIスーパーコンピュータで訓練され、Nature Digital Medicine Thursdayで紹介された論文で詳細が説明されています。 GatorTronGPTは臨床データに基づいて訓練された大規模な言語モデル(LLMs)の一つです。研究者たちは、GPT-3のフレームワークを使用してこのモデルを訓練しました。ChatGPTでも使用されているフレームワークです。 この目的のために、彼らは2770億単語の巨大なコーパスを使用しました。訓練データには、非特定化された臨床ノートから820億単語と、様々な英文書から1950億単語が含まれています。 しかし驚きはここにあります。研究チームはGatorTronGPTを使用して、約200億語の合成臨床テキストコーパスを生成しました。この合成臨床テキストは、臨床要素に焦点を当て、医師が書いた本物の臨床ノートのように読むことができます。 この合成データは、GatorTron-SというBERTベースのモデルの訓練に使用されました。 比較評価では、GatorTron-Sは臨床概念の抽出や医療関連の抽出などの臨床自然言語理解のタスクで優れたパフォーマンスを示しており、8200億単語の臨床データセットで訓練された元のBERTベースのモデルであるGatorTron-OGが打ち立てた記録を上回っています。 さらに驚くべきことに、これを少ないデータで実現できました。 GatorTron-OGとGatorTron-Sのモデルは、フロリダ大学のHiPerGatorスーパーコンピュータでNVIDIAのMegatron-LMパッケージを実行する560台のNVIDIA A100 Tensor Core GPUで訓練されました。このプロジェクトで使用されたMegatron LMフレームワークの技術は、後にNVIDIA NeMoフレームワークに組み込まれ、GatorTronGPTの最新の研究にも活用されています。 LLMsによる合成データの使用は、いくつかの課題に対処するものです。LLMsには膨大な量のデータが必要であり、品質の高い医療データが限られています。 また、合成データはHIPAAなどの医療プライバシー規制に準拠したモデル訓練を可能にします。 GatorTronGPTの研究は、昨年ChatGPTの急速な普及と共に登場したLLMsが、さらに多くの分野で活用される可能性を示す最新の例です。 また、加速されたコンピューティングによって実現される新しいAI技術の進展の一例でもあります。…

TSMixer グーグルによる最新の予測モデル

時系列予測の領域は、N-HiTS、PatchTST、TimesNet、そしてもちろんTimeGPTといった多くの重要な最近の貢献により、泡立ちを続けています一方、Transformerは…

「LLaVAと一緒にあなたのビジョンチャットアシスタントを作りましょう」

大規模な言語モデルは、革命的な技術であることが証明されていますその能力を活用した数多くのアプリケーションがすでに開発されており、まもなくさらに多くのアプリケーションが期待されています...

マイクロソフトの研究者たちは、FP8混合精度トレーニングフレームワークを公開しました:大規模な言語モデルのトレーニング効率を超高速化します

大型言語モデルは、言語生成と理解の能力において以前に類を見ない優れた能力を示しており、論理学、数学、物理学、他の領域の先進に道を開いています。ただし、LLMのトレーニングは非常に高額です。たとえば、540Bモデルをトレーニングするには、PaLMには6,144個のTPUv4チップが必要であり、GPT-3175Bは事前トレーニングに数千ペタフロップ/秒の計算が必要です。これは、特に次世代の非常に知的なモデルを拡大するために、LLMのトレーニングコストを低くする必要性を示しています。コストを節約するための最も有望なアプローチの1つは、低精度トレーニングです。このアプローチは、高速な処理、少ないメモリ使用量、最小限の通信オーバーヘッドを提供します。現在のほとんどのトレーニングシステム(Megatron-LM、MetaSeq、Colossal-AIなど)は、デフォルトでFP16/BF16のミックス精度またはFP32の完全精度を使用してLLMをトレーニングします。 大規模なモデルの場合、これは完全な精度を得るためのオプションですが、FP8はNvidia H100 GPUの登場により、次世代の低精度表現のデータ型として台頭しています。既存の16ビットと32ビットの浮動小数点ミックス精度トレーニングと比較して、FP8には理論的に2倍の高速化、50%から75%のメモリコスト削減、50%から75%の通信コスト削減の潜在能力があります。これらの結果は、次世代の基礎となるモデルのスケーリングに非常に有望です。残念ながら、FP8トレーニングへのサポートはもっと少なく、時間的に間隔のあるものが必要です。Nvidia Transformer Engineは唯一の実用的なフレームワークですが、GEMM計算にはFP8のみを使用し、マスターウェイトとグラデーションは極めて正確なFP16またはFP32のように維持します。これにより、エンドツーエンドのパフォーマンス向上、メモリの節約、および通信コストの節約は比較的少なくなり、FP8のフルポテンシャルは隠されてしまいます。 Microsoft AzureとMicrosoft Researchの研究者は、この問題を解決するためにLLMのトレーニングに非常に効率的なFP8ミックス精度フレームワークを提供しています。主なコンセプトは、ビッグモデルのトレーニングプロセス中に、計算、ストレージ、通信において低精度FP8を活用することです。これにより、以前のフレームワークと比較して、システム要件を大幅に削減することができます。より具体的には、彼らはFP8を使用して最適化ステージを3つ作成し、オプティマイザ、分散並列トレーニング、8ビットの集合通信を段階的に導入します。より大きな最適化レベルは、LLMのトレーニングプロセスでより多くのFP8が使用されたことを示しています。さらに、彼らのシステムはテンソル、パイプライン、およびシーケンスの並列性を含むFP8低ビット並列性を提供します。これにより、数千のGPUでトレーニングされたGPT-175Bなどの大規模なトレーニングが可能になり、次世代の低精度並列トレーニングの扉が開かれます。 FP8を使用したLLMのトレーニングには、作業が必要です。データオーバーフローやアンダーフローなどの問題に起因する固有のダイバージェンスや数値不安定性などの問題が発生します。これらの問題に対処するために、彼らは2つの方法を提案しています。情報の損失を防ぐための自動スケーリングと、重み、勾配、およびオプティマイザーの状態などのパラメータにおけるデータ精度の影響を分離するための精度切り離しです。最初の方法は、非精度に敏感でないコンポーネントの精度を低下させ、テンソルのスケーリング係数の動的調整により、FP8データフォーマット表現範囲内の勾配値を保持することです。これにより、全体の通信中にアンダーフローやオーバーフローの発生が防止されます。 彼らは、検証のために監督付き微調整と事前トレーニングを含むGPTスタイルのモデルトレーニングに提案されたFP8低精度フレームワークを使用します。彼らのFP8手法をよく使用されるBF16ミックス精度トレーニングアプローチと比較すると、実験結果は、実メモリ使用量の27%〜42%の減少や、重み勾配通信オーバーヘッドの63%〜65%の著しい減少など、重要な改善を示しています。FP8でトレーニングされたモデルは、学習率や重み減衰などのハイパーパラメータの調整なしに、BF16の高精度を使用するモデルと同等の性能を示します。GPT-175Bモデルのトレーニングでは、彼らのFP8ミックス精度フレームワークがH100 GPUプラットフォーム上で21%少ないメモリを使用し、TEよりも17%短いトレーニング時間を節約することに注目すべきです。 図1: クラスター内のNvidia H100 GPU with 80G RAMを使用した場合に達成可能な最大モデルサイズの比較。当社のFP8混合精度トレーニング方法とより一般的なBF16方法を使用しています。 さらに重要なことは、Fig. 1に示すようにモデルのスケールが増加すると、低精度のFP8を使用することで得られるコスト削減をさらに向上させることができることです。事前学習されたLLMsをエンドタスクとユーザーの好みにより適合させるために、彼らは指示の微調整とヒューマンインプットによる強化学習にFP8混合精度を使用しています。特に、彼らは公開されているユーザー共有の指示に従うデータを使用して事前学習済みモデルを微調整します。彼らのFP8混合精度で調整されたモデルは、BF16の半精度を使用したモデルと比較して、AlpacaEvalとMT-Benchベンチマークで同様のパフォーマンスを発揮します。さらに、FP8混合精度はトレーニング中に多くのモデルをロードする必要があるRLHFにおいて非常に有望です。 人気のあるRLHFフレームワークであるAlpacaFarmは、トレーニング中にFP8を使用することで、モデルの重量を46%減少させ、オプティマイザの状態のメモリ使用量を62%削減することができます。これは、彼らのFP8低精度トレーニングアーキテクチャの柔軟性と適応性をより一層示しています。彼らが将来の世代のLLM向けのFP8低精度トレーニングの発展に貢献している内容は以下の通りです。• FP8による混合精度トレーニングのための新しいフレームワーク。このフレームワークは使いやすく、8ビットの重み、勾配、オプティマイザ、および分散トレーニングを段階的に解除します。現在の16/32ビット混合精度の代替として、ハイパーパラメータとトレーニングレシピを変更するだけで、この8ビットフレームワークに簡単に切り替えることができます。また、数行のコードで8ビット低精度トレーニングを可能にするPytorchの実装も提供しています。 新しいFP8トレーニングされたGPTスタイルモデル。彼らは提案されたFP8スキームの能力を、7Bから175Bパラメータのモデルに適用することで示しています。彼らは、テンソル、パイプライン、シーケンスの並列処理をFP8に対応させ、大規模な基礎モデルのトレーニングにFP8を使用することを可能にしています。最初のFP8…

デジタルアーティストのスティーブン・タンが、今週の「NVIDIA Studio」でソフィッシュティケイテッドなスタイルを披露します

エディターの注:この記事は、週刊のIn the NVIDIA Studio シリーズの一部であり、注目のアーティストを紹介し、クリエイティブなヒントやトリックを提供し、NVIDIA Studio のテクノロジーがクリエイティブなワークフローを向上させる方法を示しています。また、新しいGeForce RTX 40シリーズGPUの機能、技術、リソースについて詳しく説明し、コンテンツの制作プロセスが大幅に加速する方法について掘り下げます。 台湾のアーティスト、Steven Tungは、サイエンスフィクション、ミニマリズム、リアリズムを探求し、芸術的な境界を押し広げる魅力的な2Dおよび3Dデジタルアートを創造しています。 今週のIn the NVIDIA Studioでは、Tungが彼の魅惑的なアニメーション「The Given Fish」のインスピレーションとクリエイティブなワークフローを共有しています。 選択された特殊効果スタジオでしか利用できなかったプロ級のテクノロジーが、ますます手に入りやすくなっています。 「視覚制作能力はますます高まり、一般の人々の間でより優れたコンピューターハードウェアへの需要が高まっています」とTung氏は述べています。「芸術とテクノロジーの進化する相乗効果は、創造者に無限の可能性を生み出すことができます。」 Tung氏は、GeForce RTX 4090グラフィックスを搭載したMSI MEG Trident…

高度なRAG 01:小から大への検索

RAG(Retrieval-Augmented Generation)システムは、与えられた知識ベースから関連情報を検索することで、事実に基づいて文脈に即した特定のドメインに関連する情報を生成することができます...

「サンゴ礁の衰退を転換する:CUREEロボットが深海にディープラーニングでダイブする」

研究者たちは、深層学習を文字通りに深く掘り下げています。 ウッズホール海洋研究所(WHOI)の自律型ロボットおよび知覚ラボ(WARPLab)とMITは、珊瑚礁とその生態系の研究のためのロボットを開発しています。 世界最大の民間海洋研究機関の努力であるWARPLabの自律型水中無人機(AUV)は、NVIDIA Jetson Orin NXモジュールによって可能にされ、珊瑚礁の衰退に歯止めをかけることを目指しています。 世界中の珊瑚礁の25%が過去30年間で消滅し、残りのほとんどの珊瑚礁も絶滅の危機に直面していると、WHOI Reef Solutions Initiativeは述べています。 AUV(興味津々の海中エコシステム探査用水中ロボット)と名付けられたCUREEは、ダイバーと一緒にビジュアル、音声、および他の環境データを収集し、珊瑚礁とその周りの海洋生物への人間の影響を理解するのに役立ちます。このロボットは、珊瑚礁の3Dモデルを構築し、生物や植物を追跡するためにNVIDIA Jetson対応のエッジAIの拡張コレクションを実行します。また、自律的にナビゲートし、データを収集するモデルも実行します。 1986年にはじめてタイタニックを探査したWHOIは、CUREEロボットをデータ収集のために開発し、対策に協力します。この海洋研究機関は、シミュレーションおよびデジタルツインの使用も検討しており、3Dツールとアプリケーションを構築および接続する開発プラットフォームであるNVIDIA Omniverseなどの解決策を調査しています。 NVIDIAはOmniverseで地球のデジタルツインを作成し、気候変動を予測するための世界で最もパワフルなAIスーパーコンピュータを開発しています。それはEarth-2と呼ばれています。 水中AI:DeepSeeColorモデル シュノーケリングをしたことのある人なら、水中の視界は陸上と比べて明確ではないことを知っています。水中では、太陽からの可視光スペクトルが距離によって減衰し、一部の色が他の色よりも抑制されます。同時に、水中の微粒子によって、バックスキャッタと呼ばれる朦朧とした視界が生じます。 WARPLabのチームは最近、これらの問題を軽減し、CUREEの作業をサポートする海中ビジョン補正に関する研究論文を発表しました。この論文では、DeepSeeColorと呼ばれるモデルを使用して、2つの畳み込みニューラルネットワークのシーケンスを実行し、水中でリアルタイムにバックスキャッタを低減し、色を補正します(NVIDIA Jetson Orin NX上で)。 「NVIDIAのGPUは、大部分のパイプラインで使用されています。画像が入ってくると、DeepSeeColorを使用して色補正を行い、魚の検出を行い、それを船上の科学者に送信できます」と、MITのロボティクス博士候補であり、WARPLabのAI開発者であるスチュワート・ジェミーソン氏は述べています。 目と耳:魚と珊瑚の検出 CUREEには、前方を向いたカメラ4台、水中音声キャプチャのための水中マイク4台、深度センサー、慣性計測ユニットセンサーが搭載されています。水中でのGPSは機能しないため、水上にある間にロボットの開始位置を初期化するためにのみ使用されます。…

「LAMPをご紹介します:テキストからイメージ拡散モデルで動作パターンを学ぶためのフューションAIフレームワーク」

最近の研究で、研究者たちはテキストからビデオへの生成の課題に対処するために、画期的なフューションショットベースのチューニングフレームワークであるLAMPを導入しました。テキストからイメージの生成(T2I)は大きな進歩を遂げていますが、この能力をテキストからビデオに拡張することは複雑な問題でした。既存の方法では、大量のテキスト-ビデオのペアと高い計算リソースが必要であるか、テンプレートビデオに強く依存したビデオ生成結果となります。ビデオ生成の自由度とリソースコストのバランスを取ることは、難しいトレードオフとなっています。 VCIP、CS、南開大学、およびMEGVIIテクノロジーの研究者チームは、この問題に対する解決策としてLAMPを提案しています。LAMPは、1つのGPU上の8から16のビデオのみを使用してテキストからイメージ拡散モデルが特定のモーションパターンを学習できるフューションショットベースのチューニングフレームワークです。このフレームワークは、コンテンツ生成のために事前学習されたテキストからイメージモデルを使用する最初のフレーム条件付きパイプラインを採用し、ビデオ拡散モデルがモーションパターンの学習に注力します。コンテンツ生成のために確立されたテキストからイメージの手法を使用することにより、LAMPはビデオの品質と生成の自由度を大幅に向上させます。 研究者たちは、ビデオの時間特性を捉えるために、事前学習されたT2Iモデルの2D畳み込み層を拡張して時間的空間モーション学習層を組み込みました。また、注意ブロックを時間レベルで動作するように変更しました。さらに、推論中に共有ノイズサンプリング戦略を導入し、最小限の計算コストでビデオの安定性を向上させました。 LAMPの機能は、テキストからビデオの生成に限定されません。実世界の画像アニメーションやビデオ編集などのタスクにも適用することができるため、さまざまなアプリケーションに対して多目的なツールです。 LAMPのモーションパターンの学習と高品質なビデオの生成における性能を評価するために、幅広い実験が実施されました。その結果、LAMPはこれらの目標を効果的に実現することができます。モーションパターンの理解とトレーニングの負担と生成の自由度のバランスを成功裏に実現します。T2Iモデルの強みを活かすことにより、LAMPはテキストからビデオの生成に対する強力な解決策を提供します。 まとめると、研究者たちはテキストからビデオの生成のためのフューザショットベースのチューニングフレームワークであるLAMPを導入しました。この革新的なアプローチは、小規模なビデオデータセットからモーションパターンを学習することにより、テキストプロンプトからビデオを生成するという課題に取り組んでいます。LAMPの最初のフレーム条件付きパイプライン、時間的空間モーション学習層、および共有ノイズサンプリング戦略により、ビデオの品質と安定性が大幅に向上しています。このフレームワークの多目的性により、テキストからビデオの生成以外の他のタスクにも適用することができます。幅広い実験を通じて、LAMPは限られたデータでモーションパターンを学習し、高品質なビデオを生成する効果を実証し、テキストからビデオの生成分野における有望な解決策を提供しています。

Find the right Blockchain Investment for you

Web 3.0 is coming, whether buy Coins, NFTs or just Coding, everyone can participate.

Advertising with us