Learn more about Search Results ML - Page 324

新しいAIの研究は、事前学習済みおよび指示微調整モデルのゼロショットタスクの一般化性能を改善するために、コンテキスト内の指導学習(ICIL)がどのように機能するかを説明しています

Large Language Models (LLMs)は、few-shot demonstrations、またはin-context learningとしても知られるプロセスによって、推論中にターゲットタスクに適応できることが示されています。この能力は、モデルのサイズが拡大するにつれて、LLMsが新たな特徴を表示することでますます明らかになっています。その中でも、指示に従って未知のタスクに一般化する能力は注目されています。そのためには、Instruction tuning、またはRLHFと呼ばれる教示学習アプローチが、この能力を高めるために提案されています。しかしながら、これまでの研究は主にfine-tuningに基づく教示学習技術に焦点を当ててきました。モデルは、多くのタスクと指示に基づいてマルチタスクでfine-tuningされており、多くのバックプロパゲーション手順が必要です。 KAISTとLG Researchの研究者グループは、in-context learningを通じて推論中に指示に従う学習(ICIL)が、既存の事前学習モデルや特定の指示に従うように特別に調整されたモデルの両方にとって有利であることを示しています(図1参照)。ICILで使用されるプロンプトには、タスクの教育、入力、出力の各インスタンスである多くのクロスタスクの例が含まれています。デモンストレーションに使用される機能を評価セットから完全に除外し、すべての評価タスクに対して同じ一連のプロンプトを使用するため、ICILはゼロショット学習アプローチです(図2参照)。 図1: SUPERNIベンチマークを使用して評価された119の評価ジョブの平均パフォーマンス。事前学習済みおよび指示に基づいたfine-tuningされたLLMsの両方がICILから利益を得ることができます。ICILのためのいくつかの例セットの標準偏差エラーバーと平均スコアを示しています。 彼らは、さまざまなダウンストリームタスクやモデルサイズに適したシンプルなヒューリスティックベースのサンプリング方法を使用して、固定された例セットを作成します。すべてのジョブに対して同じ固定されたデモンストレーションセットを先頭に追加することで、新しいターゲットタスクやモデルのベースラインのゼロショットパフォーマンスを評価および複製することができます。図1は、指示に従うようにfine-tuningされていないさまざまな事前学習済みLLMsのゼロショットチャレンジでの一般化性能を大幅に向上させることを示しています。 図2: コンテキスト学習教示(ICIL)の概要。すべてのタスクに対して事前学習済みおよび指示に基づいたfine-tuningされたLLMsを評価するために、指示、入力、出力の各インスタンスで構成される事前定義済みのデモンストレーションセットを構築します。デモンストレーションに含まれるタスクと評価されるタスクが厳密に留保されることにより、ゼロショットの一般化シナリオが保証されます。 彼らのデータは、指示に明確な応答オプションを備えた分類タスクの選択が、ICILの成功の鍵であることを示しています。重要なことは、ICILを使用した小さいLLMsでも、ICILを使用しない大きな言語モデルよりも優れたパフォーマンスを発揮することです。たとえば、6BサイズのICIL GPT-Jは、175Bサイズの標準的なゼロショットGPT-3 Davinciよりも30以上優れています。さらに、ICILを教示に基づいたfine-tuningされたLLMsに追加することで、特に100B以上の要素を持つモデルに対するゼロショットの指示に従う能力が向上することを示しています。これは、ICILの影響が指示の修正の影響と加算的であることを示唆しています。 これは、以前の研究がfew-shot in-context learningにはターゲットタスクと類似した例を取得する必要があると示唆していたのとは対照的に、生成ターゲットタスクにも当てはまります。さらに驚くべきことに、各例の入力インスタンス分布にランダムなフレーズを代わりに使用しても、パフォーマンスに顕著な影響はありません。このアプローチに基づいて、LLMsは指示中で提供される応答オプションと各デモンストレーションの生成との対応関係を推論中に学ぶため、指示、入力、出力の複雑な関係に依存するのではなく、ICILがLLMsを目標指示に集中させ、目標タスクの応答分布の信号を見つけるのを支援することが目的です。 以下のPaperとGithubをご覧ください。この研究に関するすべてのクレジットは、このプロジェクトの研究者に帰属します。また、最新のAI研究ニュース、クールなAIプロジェクトなどを共有している15k+ ML SubReddit、Discordチャンネル、およびEmailニュースレターにもぜひご参加ください。…

「Deep Diving Into Llama 2 メタAIの新しいオープンソース基盤モデル」

先週、Meta AIがジェネレーティブAIの分野で話題をさらいましたLlama 2のオープンソースリリースと商業提供が行われましたこのモデルは3つの異なるバージョンがリリースされました 7B、13B、そして...

「2023年の営業プロフェッショナル向けのAIツール52選」

モーション モーションは、ユーザーがカレンダー、ミーティング、プロジェクトを管理するのに役立つ生産性ツールです。 Seamless.ai このプラットフォームは、B2Bセールスリードのリアルタイム検索エンジンです。ユーザーはセールスサイクルを短縮し、より多くの取引を成立させることができます。 AdCreative AI 人工知能を使って、秒単位でコンバージョンに焦点を当てた広告クリエイティブやソーシャルメディアの投稿クリエイティブを生成します。時間を節約しながら、より良い結果を得ることができます。 Jasper Jasperは、ユーザーがより良いセールスコピーを書くことができるAIコピーライティングツールです。 Apollo Apolloは、ユーザーが理想のバイヤーを見つけ、コンタクトし、獲得するのをサポートします。Apolloを使えば、最も正確なB2Bデータベースにアクセスできます。 Otter AI Otter.AIは、共有可能で検索可能、アクセス可能、安全なリアルタイムの会議のトランスクリプションを提供します。オーディオを録音し、ノートを書き、スライドを自動的にキャプチャし、要約を生成する会議アシスタントを手に入れましょう。 tl:dv このツールは、Google MeetやZoom用のAIパワーの会議録音ツールです。 Oliv AI OlivのAIエンジンは、広範な録音を分析して、効果的なディスカバリー質問、よくある顧客の質問、一般的な異議を特定します。 Sendspark このAIツールを使えば、パーソナライズされたビデオを使って関係を構築することができます。 Gong Gongは、顧客とのやり取りをキャプチャし、分析し、より良い意思決定のための洞察を提供します。…

「CohereによるLLM大学に関する必要なすべて」

「LLM大学 by Cohere で新しいキャリアを始めたいですか?それとも次のビッグテックに移りたいですか?それができるようになりました」

「機械学習モデルにおける気象データの利用」

はじめに 天気は現実世界で起こる多くのことに影響を与える主要な要素です。実際、それは非常に重要なので、機械学習モデルを組み込むことでそれを取り込む予測モデルには通常恩恵をもたらします。 次のシナリオを考えてみてください: 公共交通機関がシステム内の遅延や渋滞を予測しようとする エネルギー供給業者が明日の太陽光発電量を見積もり、エネルギー取引のために使用したい イベント主催者が参加者数を予測し、安全基準を満たすために確保する必要がある 農場が来週の収穫作業をスケジュールする必要がある 上記のシナリオのどれにも天気を含めないモデルは、無意味であるか、あるいはできるだけ良くないと言えるでしょう。 驚くことに、天気予測自体に焦点を当てたオンラインリソースは多くありますが、天気データを効果的に特徴量として取得・使用する方法についてはほとんどありません。この記事はそれについて説明します。 概要 まず、モデリングに天気データを使用する際の課題、一般的に使用されるモデル、および提供者について紹介します。そして、ケーススタディを実行し、ニューヨークのタクシー乗車を予測するために提供者のデータを使用して機械学習モデルを構築します。 この記事の最後には、以下のことを学びます: モデリングにおける天気データの課題 どのような天気モデルと提供者が存在するか 時系列データのETLと特徴量構築の典型的な手順 SHAP値を使用した特徴量の重要度評価 この記事はデータサイエンスブログマラソンの一環として公開されました。 課題 測定と予測された天気 本番のMLモデルでは、(1)リアルタイムで予測を行うためのライブデータと(2)モデルをトレーニングするための大量の過去のデータの両方が必要です。 by Hadija on Unsplash…

ジョージア工科大学のこのAI論文は、より速く信頼性の高い方法で潜在的な超伝導体の新しい候補を特定するための人工知能手法を提案しています

超電導体は、臨界温度以下に冷却されると、電気抵抗を無視することができ、ゼロ抵抗を示します。この素晴らしい超電導体の特性により、エネルギー、交通、最先端のエレクトロニクスなど、さまざまな現実世界の応用が可能になります。過去10年間、高臨界温度超電導体の探索には大きな進展がありました。この論文では、ジョージア工科大学とハノイ科学技術大学(ベトナム)の研究者が、機械学習経路に原子レベルの情報を組み込むための最初のステップとして、新しい従来型(またはBCS)超電導体、特に周囲圧での発見に取り組んでいます。 ゼロ温度での高温超電導の予測は研究者にとって困難な課題でした。研究者は、異なる圧力で計算されたλおよびωlogの1100以上の値を持つ584の原子構造のデータセットを慎重にキュレーションしました。λおよびωlogのためのMLモデルが開発され、マテリアルプロジェクトデータベースの80,000以上のエントリをスクリーニングし、Tcが約10−15KおよびP = 0に等しい可能性のある2つの熱力学的かつ力学的に安定した材料が発見されました(第一原理計算による)。研究者は、原子構造を数値ベクトルに変換するためにmatminerパッケージを使用し、MLアルゴリズムとしてガウスプロセス回帰を使用してこれを達成しました。 研究者は、35の候補に対して超電導特性を予測するためにMLモデルを使用しました。その中で、最も高い予測されたTc値を持つものは6つでした。いくつかは不安定であり、さらなる安定化計算が必要でした。残りの2つの候補、すなわちCrHとCrH2の立方構造の安定性を検証した後、第一原理計算を使用してそれらの超電導特性を計算しました。研究者は、予測結果の正確性を報告された値の2-3%以内と確認するために、ローカル密度近似(LDA)XC機能を使用して追加の計算を実施しました。また、研究者は、これらの超電導体の合成可能性を調査するために、無機結晶構造データベース(ICSD)での起源を追跡しました。これらは過去に実験的に合成されたことがわかり、将来のテストで予測された超電導性が確認されることを期待しています。 将来の研究では、研究者はデータセットを拡大し多様化させ、ディープラーニング技術を使用し、逆設計戦略を統合して実質的に無限の材料を効率的に探索するためのMLアプローチを向上させる予定です。研究者は、高Tc超電導体の発見を容易にするためにアプローチをさらに改善し、実世界のテストと合成のために実験の専門家と協力することを想定しています。 論文をチェックしてください。この研究に関しては、研究者に全てのクレジットがあります。また、最新のAI研究ニュース、クールなAIプロジェクトなどを共有している26k+ ML SubReddit、Discordチャンネル、およびメールニュースレターに参加するのをお忘れなく。 このAI論文は、ジョージア工科大学の研究者が、高速かつ信頼性のある方法で潜在的な超電導体の新たな候補を特定するための人工知能手法を提案しています。この記事はMarkTechPostで最初に掲載されました。

ケンブリッジ大学とUCLAの研究者が、信頼性のある機械学習システムの開発をガイドするための新しいデータ中心のAIチェックリストスタイルフレームワークであるDC-Checkを紹介しました

機械学習(ML)アルゴリズムの革新的な進歩により、電子商取引、金融、製造、医療など、さまざまな産業でAIを活用したアプリケーションが可能になりました。しかし、複雑なデータ環境で実世界のMLシステムを開発することは困難であり、多くの高名な失敗例がデータやアルゴリズムのバイアスに起因することが示されています。 この問題に対処するため、ケンブリッジ大学とUCLAの研究チームは、DC-Checkという新しいデータ中心のAIフレームワークを紹介しました。このフレームワークは、機械学習アルゴリズムのトレーニングに使用されるデータの重要性を強調することを目指しています。DC-Checkは、実践者や研究者がMLパイプラインの各ステージ(データ、トレーニング、テスト、展開)でデータの影響について批判的に考えるための質問と実用的なツールを提供するアクション可能なチェックリストスタイルのフレームワークです。 研究者たちは、現在の機械学習のアプローチはモデル中心であり、モデルの反復と改善に焦点を当てて予測性能の向上を図っていると指摘しています。しかし、このアプローチはしばしばMLライフサイクル全体でのデータの重要性を過小評価しています。一方、データ中心のAIは、信頼性のあるMLシステムの構築においてデータを鍵と見なし、これらのシステムに使用されるデータを体系的に改善しようとします。研究者たちは、データ中心のAIを次のように定義しています。「データ中心のAIは、モデルのトレーニングと評価に使用される基盤となるデータを体系的に特徴付け、評価、監視するための手法とツールを包括的に扱う。データに焦点を当てることで、予測性が高いだけでなく、信頼性のあるAIシステムを作成することを目指しています」と研究者は論文で述べています。 研究者たちは、データ中心のAIには大きな関心がある一方で、データ中心のAIシステムを設計する際には現在標準化されたプロセスがないため、実践者がそれを適用することが困難であると指摘しています。 DC-Checkは、データ中心のAIの普及を促進するための最初の標準化されたフレームワークとしてこの課題を解決します。DC-Checkのチェックリストは、パイプラインの各ステージでデータの影響を考えるための一連の質問を提供し、実用的なツールと技術も提供します。また、解決すべき課題についても強調しています。 DC-Checkは、機械学習パイプラインの4つの主要なステージ(データ、トレーニング、テスト、展開)をカバーしています。データのステージでは、DC-Checkは積極的なデータ選択、データのキュレーション、データ品質評価、およびモデルトレーニングに使用されるデータの品質向上のための合成データを考慮するよう実践者に促します。トレーニングのステージでは、DC-Checkはデータに基づくモデル設計、ドメイン適応、およびグループの頑健なトレーニングを推進します。テストの考慮事項には、情報を得たデータの分割、ターゲット指標とストレステスト、およびサブグループでの評価が含まれます。最後に、展開の考慮事項には、データの監視、フィードバックループ、および不確実性推定などの信頼性手法が含まれます。 チェックリストの対象は実践者と研究者ですが、DC-Checkは組織の意思決定者、規制当局、政策立案者がAIシステムについて的確な判断を下すのにも利用できるとされています。 DC-Checkの研究チームは、このチェックリストがデータ中心のAIの広範な採用を促進し、信頼性の高い機械学習システムをもたらすことを期待しています。また、DC-Checkの論文とともに、DC-Checkのチェックリストとツール、さらに追加のリソースを提供するコンパニオンウェブサイトも提供しています。 The post Cambridge and UCLA Researchers Introduce DC-Check: a new Data-Centric AI Checklist-Style Framework to Guide…

「ChatGPTなどの大規模言語モデル(LLM)がファインチューニングにおいて教師あり学習ではなく強化学習を使用する理由」の5つの理由

過去数ヶ月間でのGenerative Artificial Intelligenceの大成功により、Large Language Modelsは絶えず進化と改善を遂げています。これらのモデルは、いくつかの注目に値する経済的および社会的変革に貢献しています。OpenAIが開発した人間と同様に有意義なテキストを生成できる自然言語処理モデルであるChatGPTは、質問に答えたり、長い段落を要約したり、コードやメールを作成したりすることができます。Pathways Language Model(PaLM)、Chinchillaなどの他の言語モデルも、人間を模倣する上で優れたパフォーマンスを示しています。 Large Language Modelsは、fine-tuningに強化学習を使用しています。強化学習は、報酬システムに基づくフィードバック駆動の機械学習手法です。エージェントは、特定のタスクを完了し、その行動の結果を観察することで、環境でのパフォーマンスを学習します。エージェントは、良いタスクごとに正のフィードバックを受け取り、悪い行動ごとにペナルティを受けます。ChatGPTのようなLLMは、強化学習のおかげで優れたパフォーマンスを発揮しています。 ChatGPTは、モデルのバイアスを最小化するためにHuman Feedbackからの強化学習(RLHF)を使用しています。しかし、なぜ教師あり学習ではなく強化学習を使用するのでしょうか?基本的な強化学習のパラダイムは、モデルをトレーニングするために使用されるラベルで構成されています。しかし、なぜこれらのラベルを教師あり学習のアプローチで直接使用できないのでしょうか?AIおよびMLの研究者であるSebastian Raschkaは、なぜ教師あり学習の代わりにfine-tuningに強化学習が使用されるのかについて、いくつかの理由を彼のツイートで共有しています。 教師あり学習を使用しない最初の理由は、それがランクのみを予測するためです。それは整合性のある応答を生成しないだけでなく、モデルはトレーニングセットに似た応答に高いスコアを与えることを学習します。一方、RLHFはランキングスコアだけでなく、生成された応答の品質を推定するように訓練されます。 Sebastian Raschkaは、教師あり学習を使用してタスクを制約最適化問題として再定式化するアイデアを共有しています。損失関数は、出力テキストの損失と報酬スコアの項を組み合わせます。これにより、生成された応答とランクの品質が向上します。ただし、このアプローチは、正しく質問-回答のペアを生成することを目的とする場合にのみ成功します。しかし、ユーザーとChatGPTの間で整合性のある会話を可能にするためには、累積報酬も必要であり、これは教師あり学習では提供できません。 教師あり学習は、トークンレベルの損失を最適化するためにクロスエントロピーを使用します。テキストパッセージのトークンレベルでは、応答の個々の単語を変更しても全体の損失にはほとんど影響がありませんが、整合性のある会話を生成するという複雑なタスクでは、単語が否定されると文脈が完全に変わる可能性があります。したがって、文脈と一貫性を考慮するためには、教師あり学習に頼ることは十分ではなく、RLHFが必要です。 教師あり学習はモデルをトレーニングするために使用できますが、経験的にはRLHFの方が優れたパフォーマンスを発揮することがわかっています。2022年の論文「Learning to Summarize from Human Feedback」は、RLHFがSLよりも優れた性能を発揮することを示しています。その理由は、RLHFが整合性のある会話の累積報酬を考慮する一方、SLはトークンレベルの損失関数のために捉えることができないためです。 InstructGPTやChatGPTなどのLLMは、教師あり学習と強化学習の両方を使用しています。この2つの組み合わせは、最適なパフォーマンスを得るために重要です。これらのモデルでは、モデルはまずSLを使用して基本的な構造と内容を学習し、その後RLを使用してさらに更新されます。SLステージでは、モデルはタスクの基本的な構造と内容を学習しますが、RLHFステージでは、モデルの応答をより正確に洗練します。…

「Quivrに会ってください:第2の脳のように構造化されていない情報を保存し、取得するためのオープンソースプロジェクト」

過去数年間、OpenAIのドメインは持続的な成長を遂げてきました。多くの大学の研究者がオープンソースのプロジェクトを構築し、データサイエンスの発展に貢献しています。Stan Girarによって構築されたオープンソースプロジェクトの1つがQuivrです。それは第二の脳とも呼ばれ、現在のデータモデルやスキーマに従って整理されていないデータを格納し、従って伝統的な関係データベースやRDBMSに格納することはできません。テキストとマルチメディアは、非構造化コンテンツの2つの一般的なタイプです。 Quivrの公式ウェブサイトから、ボタン「試しにやってみる」をクリックしてQuivrのプレミアムバージョンにアクセスすることができます。制限なしでQuivrを使用したい場合は、デバイスにローカルにダウンロードすることもできます。Quivrのインストールには適切な手順があります。Quivrのリポジトリをローカルデバイスにクローンし、それをナビゲートする必要があります。また、仮想環境を作成し、デバイスでアクティベートする必要もあります。すべての依存関係をインストールし、Streamlitのシークレットをコピーし、重要な認証情報を追加する必要もあります。最後に、これらの手順を経てQuivrアプリを実行できるはずです。OpenAIの公式ウェブサイトからも参照できます。また、デバイスには公式で最新のPythonのバージョンが事前にインストールされている必要があります。Quivrをインストールするローカルデバイス上で仮想のPythonプログラミング環境を作成できる公式のツールも必要です。 QuivrのオープンAIソフトウェアには、非構造化データと情報を保存するためのさまざまな機能があります。Quivrは画像、テキスト、コードテンプレート、プレゼンテーション、ドキュメント、CSVおよびxlsxファイル、PDFドキュメントなど、任意のデータセットを保存できます。自然言語処理技術の助けを借りて、情報を生成し、より多くのデータを生成するのにも役立ちます。高度な人工知能の助けを借りて、失われた情報を取り戻すこともできます。Quivrは、データセットにできるだけ迅速にアクセスして出力を通じて提供するため、高速です。データはクラウドに適切に保存されているため、Quivrからデータを失うことはありません。 Quivrは情報検索の能力をクラウドシステムと統合したオープンソースのアプリケーションです。それは将来的にはほとんどの人々によって生産性を向上させるために使用されるソフトウェアになるでしょう。Quivrを使用する主な利点は、同時にさまざまなツールを処理できることです。これからのデータサイエンスや人工知能の分野で新興技術となることでしょう。

「さまざまな深層学習を用いた天気予測モデルに関する研究」

気象予測の世界的な影響を考慮して、様々な研究コミュニティの研究者の関心を引いてきました。最近のディープラーニング技術の進歩、大量の気象データの広範な提供、情報技術およびコンピュータ技術の進展により、多くの研究が気象予測のための大容量の気象データセットの中に隠れた階層的パターンを探索することに動機付けられてきました。機械学習技術は、極端な気象イベントの予測、観測およびモデル化された大気条件における極端な気象および気候パターンの特定、および激しい天候の運用ガイダンスとリスク評価に適用されてきました。過去数年間、MetNet-2、WF-UNet、ClimaX、GraphCast、Pangu-Weatherなどのディープラーニングベースの気象予測モデルの開発が進んできました。 この記事では、これらのモデルについて簡単に説明し、これらのモデルが従来の気象シミュレータに比べて大幅に優位になっているかどうかを理解します。 ClimaX:気象および気候の基礎モデル 物理学に基づいた数値大気モデルは、現在の気象および気候予測ソフトウェアの基盤です。これらの技術は非線形ダイナミクスと複雑な多変数間の相互作用をモデル化し、近似することが困難になっています。高い空間および時間分解能で大気過程を数値的にシミュレートすることは、計算的に要求が高くなります。最新の機械学習ベースのデータ駆動型技術は、ディープニューラルネットワーク内でデータ駆動型の機能マッピングをトレーニングすることにより、ダウンストリームの予測または投影タスクを直接処理します。これらのネットワークは、離散的な時空間タスクのために限られた一貫した気候データでトレーニングされるため、数値モデルの汎用性を欠いています。 Microsoft Autonomous Systems and Robotics Research、Microsoft Research AI4Science、およびUCLAによる新しい研究では、ClimaXという気象および気候科学のためのディープラーニングモデルが紹介されています。ClimaXは、さまざまなデータセット、異なる変数、空間的および時間的なカバレッジ、物理的基盤でトレーニングすることができます。ClimaXは、CMIP6気候データセットを無監督でトレーニングに使用します。広範な利用性を維持しながら計算を増やすために、ClimaXはTransformerを新しいエンコーディングと集約ブロックで拡張しています。 初期トレーニングの後、ClimaXは大気変数や異なる時間・空間スケールを含むさまざまな気候および天候のジョブを実行するために微調整することができます。低い解像度や少ない計算予算で事前トレーニングされていても、ClimaXの普遍性により、気象予測および気候予測のベンチマークでデータ駆動型のベースラインを上回る性能が得られます。 研究者たちは、この手法の普遍性がさらに多様な目的に役立つ可能性があると考えています。これには、極端な気象イベントの予測や人為的気候変動の評価など、既に事前トレーニングされたClimaXバックボーンを活用できる地球システム科学のタスクの例が含まれます。気象や気候との密接な関係があるため、農業、人口統計学、および保険科学も興味深い候補です。 Pangu-Weather:グローバル気象予測のための Huawei Cloud Computingの研究チームが導入したPangu-Weatherは、ディープラーニングに基づくグローバル気象予測システムです。チームはECMWFの第5世代再解析(ERA5)から43年間の毎時のグローバル気象データを収集し、256百万パラメータを持ついくつかのディープニューラルネットワークをトレーニングするためのデータ駆動型の環境を作成しました。 これは、全ての変数(高度、比湿度、風速、温度など)および全ての時間スケール(1時間から1週間まで)において、最先端の数値気象予測(NWP)技術よりも正確性が向上している初めてのAIベースのアプローチです。階層的な時間集約戦略と3D Earth Specific Transformer(3DEST)アーキテクチャを使用することで、予測の正確性が向上しています。Pangu-forteは、短期から中期までの決定論的な予測を行います。気象(つまり、予測時間は1時間から1週間まで)。 Pangu-Weatherからは、台風の追跡やリアルタイムの大規模メンバーアンサンブル予測など、さまざまなダウンストリーム予測オプションが利用できます。Pangu-Weatherは、AIベースの技術がNWP技術よりも優れた性能を発揮できるかどうかという問いに答え、ディープラーニング気象予測システムの向上に向けた新しい提案を行います。 チームは、彼らのトレーニング方法がまだ完全な収束を達成していないと考えています。観測要素の数を増やし、4Dディープネットワークのトレーニングに時間次元を統合し、より深いおよび/または広いネットワークを使用する余地があります。すべてこれらは、より多くのメモリとFLOPsを持つGPUを必要とします。したがって、計算リソースのおかげで将来の気象予測はより良くなります。…

Find the right Blockchain Investment for you

Web 3.0 is coming, whether buy Coins, NFTs or just Coding, everyone can participate.

Advertising with us