Learn more about Search Results 2回

「2024年のデータエンジニアリング&AI Xイノベーションサミットを発表します」

「私たちが4月にボストンで開催されるODSC Eastと共に開催される2つのイベントを発表できることは、もっと興奮しませんそれは、データエンジニアリングサミットとAi Xイノベーションサミットですこれら2つの共同開催イベントは、これらの分野を形作るトピックとトレンドにさらに深く立ち入る機会を提供しています学んでください...」

デルタテーブルの削除ベクトル:Databricksの操作のスピードアップ

伝統的に、Delta Lakeはコピーオンワイトのパラダイムのみをサポートしており、元のデータファイルは書き込まれるたびに変更されます例:ファイル内の1行が削除されると、...

一緒にAIを学びましょう−Towards AIコミュニティニュースレター#5

おはようございます、AI愛好家の皆さん!今週のポッドキャストのエピソードは必聴で、これまでの24エピソードの中でも一番優れていますグレッグは驚くべき洞察を共有し、起業家だけでなく関係者にも関連する情報です...

「Pythonを学ぶための5つの無料大学講座」

Pythonプログラミングを学ぶ最高のリソースをお探しですか? これらの無料の大学のコースをチェックしてみてください

「2020年と2021年のトップの声、グレッグ・コキーヨとともにLinkedInで成功しよう」

「私は、LinkedInで注目されるトップボイスのGreg Coquilloさんと魅力的な会話をしました彼はシニアプロダクトマネージャーであり、AIスタートアップの投資家でもありますこの機会を利用して重要なポイントについて深く掘り下げることができました」

UCLAとCMUの研究者が、優れた中程度範囲の天気予報のためのスキルと信頼性のあるスケーラブルなトランスフォーマーニューラルネットワーク「ストーマー」を紹介しました

現在、科学と社会が直面している主な問題の一つは天気予報です。正確な天気予報は、自然災害や極端な天候事象に対処し、回復するために人々が計画するのに重要な役割を果たしており、気候変動への懸念が高まる中で環境をよりよく理解するために研究者を支援しています。数値天気予報(NWP)モデルは、大気科学者の業務の中核です。これらのモデルは、熱力学と流体力学を説明する微分方程式のシステムを使用し、時間を経て結合されることで将来の予測を作成します。NWPモデルは、放射や雲物理学などの重要な小スケールの物理現象のパラメータ化の誤りなど、いくつかの欠点がありますが、広く使用されています。 大規模な微分方程式の統合の困難さから、数値的なアプローチは特に空間および時間の解像度を高くする場合には計算コストが非常に高くなります。さらに、これらのモデルは気候科学者の知識に依存して方程式、パラメータ化、アルゴリズムを改善するため、NWPの予測精度は追加データによっては改善されません。NWPモデルの問題に対処するため、ますます多くの人々がデータ駆動型、深層学習ベースの天気予測手法に関心を示しています。歴史的データ(ERA5再解析データセットなど)を使用して、深層ニューラルネットワークは将来の天気予測を訓練するために使用されます。これがこの手法の主たる前提です。従来のNWPモデルが数時間かかるのに対し、訓練後は数秒で予測することができます。 この分野の初期の取り組みでは、気象データと自然の画像は似たような空間構造を持つため、ResNetやUNetなどの従来のビジョンアーキテクチャを天気予測に使用しようとしました。しかし、それらのパフォーマンスは数値モデルに劣っていました。しかし、改善されたモデル設計、トレーニングレシピ、データとパワーの増加により、最近では注目すべき進展がありました。最初に実用IFCを上回ったモデルは、0.25°データ(721×1440グリッド)でトレーニングされた3D地球特有のトランスフォーマーモデルであるPangu-Weatherでした。すぐに、Keislerのグラフニューラルネットワーク設計がGraphCastによって0.25°データにスケールアップされ、Pangu-Weatherを上回る結果を示しました。 予測精度は優れているものの、現在の手法では複雑で高度にカスタマイズされたニューラルネットワークのトポロジーがしばしば使用され、抜け穴実験がほとんど行われないため、その効果の正確な要素を特定するのは困難です。たとえば、GraphCastにおける多重メッシュメッセージパッシングが効率にどの程度貢献しているのか、3D地球特有のトランスフォーマーが通常のトランスフォーマーと比べてどのような利点を持っているのかは分かりません。この分野では、これらの現行手法をより良く理解し、できれば簡素化するために統合フレームワークが必要です。また、気候や天候の予測を超える気象基礎モデルを作成することも容易になります。この研究では、適切なトレーニングの公式と組み合わせることで、簡単な設計が先端技術を上回る性能を発揮することを示しています。 UCLA、CMU、Argonne National Laboratory、およびPenn State Universityの研究者は、Stormerと呼ばれる、従来のトランスフォーマーのバックボーンにほとんどの変更を加える必要のないシンプルなトランスフォーマーモデルを提案しています。研究チームは、従来のビジョントランスフォーマー(ViT)アーキテクチャをベースにして、モデルのパフォーマンスに影響を与える3つの要素を詳細に調査しました:モデルは次の3つの要素から構成されます:(1)大気変数間の相互作用をモデル化し、入力データをトークンのシーケンスに変換する天気固有の埋め込み層、(2)モデルをランダムな間隔で天気の動態を予測するようにトレーニングするランダムなダイナミクス予測目標、(3)ロス関数において異なる圧力レベルの変数を重み付けして各圧力レベルの密度を近似する圧力加重ロス。提案されたランダムなダイナミクス予測目標は、モデルがトレーニングされた間隔のさまざまな組み合わせを使用することによって、推論中に特定のリードタイムに対して多くの予測を生成するため、1つのモデルが複数の予測を可能にします。 たとえば、6時間の予測を12回配布するか、12時間の予測を6回配布することで、3日間の予測を得ることができます。これらの予測を組み合わせることにより、特に長期のリードタイムにおいて、大きな性能向上が得られます。研究チームは、データ駆動型の天気予測のための人気のあるベンチマークであるWeatherBench 2を使用して、Stormerという提案手法を評価しました。テスト結果は、Stormerが7日後に先端の予測システムを上回り、1日から7日間の重要な大気変数の予測精度で競争力のある結果を達成していることを示しています。特に、Stormerはほぼ5倍低解像度データおよび数桁少ないGPU時間で訓練されることにより、ベースラインよりも性能が向上しています。さらに、スケーリングの研究により、モデルの容量とデータサイズを増やすとStormerの性能が継続的に向上する可能性があることが証明されました。

‘LLMがデータアナリストを置き換えることはできるのか? LLMを活用したアナリストの構築’

私たちの中の誰もが、昨年の少なくとも1度は、ChatGPTがあなたの役割を置き換えることができるか(いや、むしろいつか)と考えたことがあると思います私も例外ではありません私たちは、最近の...

Google DeepMindはAlphaCode 2を導入しました:競争プログラミングの優れた進歩において、ジェミニモデルの力を利用した人工知能(AI)システム

機械学習の分野では、テキストデータの生成と理解において驚くべき進展が見られています。しかし、問題解決における新しい革新は比較的単純な算術とプログラミング問題に制約されています。競技プログラミングは、限られた時間内に複雑な問題のためのコードソリューションを書く競技者のコーディングスキルを評価する厳しいものであり、批判的思考、論理的思考、アルゴリズムとコーディングの概念の徹底的な理解が必要です。 Google DeepMindは、競技プログラミングの分野を解決し、向上させることを目指して、AlphaCode 2を導入しました。AlphaCodeよりも高速で正確さと迅速さが求められるゲームであり、AlphaCode 2は基準を引き上げ、ゲームのルールを変えました。この人工知能(AI)システムは、GoogleのGeminiチームによって2023年に作成された強力なGeminiモデルに基づいており、その洗練された論理思考と問題解決能力の基盤となっています。 チームは、AlphaCode 2のアーキテクチャは強力な大規模言語モデル(LLM)と競技プログラミングに特化した高度な検索および再順位付けシステムに基づいていると共有しています。それはコードサンプルを生成するポリシーモデルのファミリー、多様性を促進するサンプリングメカニズム、非準拠のサンプルを除去するフィルタリングメカニズム、冗長性を除去するクラスタリングアルゴリズム、および最適な候補を選ぶスコアリングモデルで構成されています。 プロセスの最初のステップは、AlphaCode 2の基盤となったGemini Proモデルです。それはGOLDトレーニングターゲットを使って厳密な調整を2回行います。1回目はCodeContestsデータセットの新バージョンに焦点を当て、多くの問題と人間が生成したコード例が含まれています。その結果、競技プログラミングで遭遇する多くの困難に対応するために特別に設計された洗練されたモデルのファミリーが生成されます。 AlphaCode 2は包括的かつ綿密なサンプリング戦略を採用しています。システムはチャレンジごとに最大100万のコードサンプルを生成し、各サンプルにランダムに温度パラメータを割り当てることで多様性を促進します。高品質のC++のサンプルがGeminiの助けを借りてAlphaCode 2に使用されています。 評価によると、AlphaCode 2は競技プログラミングのよく知られたプラットフォームであるCodeforcesで最近のテストでその能力を示しました。AlphaCode 2はたった10回の試行で驚異的な43%の問題に回答することができました。同様の状況下で25%の問題を扱った先行システムAlphaCodeに比べて、これは重要な進展です。AlphaCode 2は平均して85番目のパーセンタイルに位置し、中央値の競合相手を上回り、かつてはAIシステムの能力とは考えられていなかったレベルで動作しています。 まとめると、AlphaCode 2は競技プログラミングにおいて困難な問題に取り組むためにAIシステムを使用する方法を示す、驚くべき開発です。このシステムの成功は技術的な成果であり、人間とAIプログラマがプログラミングの限界を押し上げるために協力する可能性を示しています。

「大規模な言語モデルの公正な評価に向けて」

「こうした大胆な主張を聞くことがますます一般的になってきているのは、LLM(レイディコマス)周りの話題が大きいためです毎週新しいモデルが登場し、現在は誰もがGPT-4に競い合おうとしていますが、それは...」

「独立性の理解とその因果推論や因果検証における重要性」

最近の記事で、著者は依存性の概念がデータセットに対して提案された有向非巡回グラフ(DAG)を検証するためにどのように使用され、不正なエッジを特定するのに使われるかを探求し、解説しました

Find the right Blockchain Investment for you

Web 3.0 is coming, whether buy Coins, NFTs or just Coding, everyone can participate.

Advertising with us