Learn more about Search Results UN

「H2O.aiとOptunaを使用した高度な予測モデリングのためのスタックアンサンブル」

私たちは皆、予測モデリングにおいてアンサンブルモデルが単一のモデルよりも優れたパフォーマンスを発揮することを知っていますおそらく、バギングやブースティングといった一般的なアンサンブル手法についてはすべて聞いたことがあるでしょうさらに、ランダムフォレストなどもよく知られています…

『中にFunSearch:GoogleのDeepMindの新しいLLM、新しい数学とコンピューターサイエンスのアルゴリズムを見つけることができる』

新しい科学の発見は、AIモデルにとって最も完全なチューリングテストかもしれません新しい科学の方法には、多くの分野からの知識を組み合わせた複雑な推論スキルや、常に実験を行う必要があります...

グーグルのディープマインドリサーチは、FunSearchを紹介します:数学とコンピュータ科学の新しい解決策を検索するための新しい人工知能手法

LLMは、人間のようなテキストの理解と生成に優れており、機械と人間のコミュニケーションを改善するために、人の言語を模倣した応答を理解し生成することができます。これらのモデルは言語翻訳、要約、質問応答、テキスト生成、感情分析など、多様なタスクで柔軟かつ適応性があります。その柔軟性により、さまざまな産業やアプリケーションに展開することが可能です。 ただし、LLMは時に幻覚を見ることがあり、正当ながら誤った主張をすることがあります。GPTモデルのような大規模言語モデルは、言語理解と生成において非常に高度であり、入力やプロンプトが曖昧、矛盾、または誤解を招く場合、モデルは入力の解釈に基づいて幻覚的な応答を生成する可能性があります。 Google DeepMindの研究者は、この制限を克服するために、FunSearchと呼ばれるメソッドを提案しています。これは、事実誤認や誤ったアイデアに対してガードする、事前にトレーニングされたLLMと評価器を組み合わせています。FunSearchは、複数の重要な要素を組み合わせることで、初期のスコアの低いプログラムを高スコアのプログラムに進化させ、新しい知識を発見するプログラムを生成します。 FunSearchは繰り返しのプロセスとして機能し、各サイクルでシステムは現在のプールから特定のプログラムを選択します。これらの選択されたプログラムはLLMによって処理され、革新的に拡張された新鮮なプログラムを生成し、自動評価を受けます。最も有望なプログラムは既存のプログラムのプールに再導入され、自己向上のループが確立されます。 研究者は、性能の良いプログラムをサンプリングし、それらを改善するためにLLMに戻すことでその機能を向上させます。彼らは骨格としての初期プログラムから始め、制御を司る重要なプログラムロジックのみを進化させます。彼らは各ステップに優先関数を配置することで意思決定を行います。彼らは多様なプログラムの大規模なプールを維持するために島ベースの進化的手法を使用します。新しい結果を見つけるために非同期にスケールさせます。 FunSearchは、ビンパッキングと同じ一般的な戦略を使用します。最も容量が少ないビンにしかアイテムを割り当てないのは、アイテムを配置した後に非常にきついフィットがされている場合のみです。この戦略により、埋まらない小さな隙間がなくなります。FunSearchの重要なコンポーネントの一つは、直接的に構成物を検索するのではなく、プログラムの空間で動作することです。これにより、FunSearchは実世界の応用の可能性を持ちます。 もちろん、これはただの初期段階です。FunSearchの進歩は、LLMの広範な進化と自然に一致します。研究者は、社会に存在するさまざまな重要な科学的および技術的な課題に対処するために、その機能を拡張し続けることを約束しています。

中国のこのAI論文では、UniRepLKNetと呼ばれる画像、音声、時間系列データ解析においてクロスモーダル性能を向上させるための革新的な大規模カーネルConvNetアーキテクチャが紹介されています

CNN(畳み込みニューラルネットワーク)は、近年では画像認識のための人気のある技術となっています。物体検出、分類、セグメンテーションのタスクにおいて非常に成功しています。しかし、これらのネットワークがより複雑になるにつれて、新たな課題が浮上しています。テンセントAI Labと香港中文大学の研究者は、大規模カーネルCNNにおけるアーキテクチャの課題に対応するための4つのガイドラインを提案しました。これらのガイドラインは、大規模カーネルをビジョンのタスク以外の領域、例えば時系列予測や音声認識などに拡張して、画像認識の向上を目指しています。 UniRepLKNetは、非常に大きなカーネルを持つConvNetの有効性を探求し、空間畳み込みだけでなく、ポイントクラウドデータ、時系列予測、音声、ビデオの認識などのドメインにまで拡張します。以前の研究では、異なる大きなカーネルの種を紹介していましたが、UniRepLKNetはそのようなカーネルを持つConvNetのためのアーキテクチャ設計に焦点を当てています。UniRepLKNetは3Dパターン学習、時系列予測、音声認識の分野で専門モデルを上回るパフォーマンスを発揮します。テクニカルモデルよりもわずかに低いビデオ認識の精度を持ちながらも、UniRepLKNetはゼロから訓練された総合的なモデルであり、さまざまなドメインでの柔軟性を提供します。 UniRepLKNetは大規模カーネルを持つConvNet向けのアーキテクチャガイドラインを導入し、過剰な深さを避け、広範なカバレッジを重視しています。ガイドラインはVision Transformers(ViTs)の制限に対処し、効率的な構造に焦点を当て、畳み込み層の再パラメータ化、タスクベースのカーネルサイジング、3×3畳み込み層の組み込みを扱っています。UniRepLKNetは既存の大規模カーネルConvNetと最近のアーキテクチャを上回る、画像認識における性能と効率を示しています。時系列予測や音声認識でも普遍的な知覚能力を示し、ポイントクラウドデータの3Dパターン学習においても、専門のConvNetモデルを超える性能を持ちます。 UniRepLKNetのアーキテクチャは、ImageNetの精度が88.0%、ADE20KのmIoUが55.6%、COCOボックスAPが56.4%といった画像認識タスクにおけるトップクラスのパフォーマンスを達成しています。UniRepLKNetの普遍的な知覚能力は、グローバル気温と風速予測の課題においてMSEとMAEで競合他社を上回ることで示されています。UniRepLKNetはポイントクラウドデータの3Dパターン学習においても専門のConvNetモデルを超える性能を発揮します。このモデルは、セグメンテーションなどの下流タスクでも有望な結果を示し、多様なドメインでの優れたパフォーマンスと効率性を確認しています。 まとめると、研究のまとめは以下の通りです: 研究では、大規模カーネルConvNet向けの4つのアーキテクチャガイドラインを導入しています。 これらのガイドラインは大規模カーネルConvNetの特徴を重視しています。 これらのガイドラインに従って設計されたConvNetモデルであるUniRepLKNetは、画像認識タスクにおいて競合他社を上回る優れたパフォーマンスを発揮します。 UniRepLKNetはカスタマイズなしで時系列予測や音声認識などの領域で普遍的な知覚能力を示します。 UniRepLKNetはポイントクラウドデータの3Dパターン学習においても専門モデルを上回ります。 また、研究は非膨張性の大規模カーネル畳み込み層の性能を向上させるためにDilated Reparam Blockを導入しています。 この研究は貴重なアーキテクチャガイドラインを提供し、UniRepLKNetとその能力を紹介し、Dilated Reparam Blockの概念を示しています。

「UnbodyとAppsmithを使って、10分でGoogle Meet AIアシスタントアプリを作る方法」

「ほぼコードなしで、Google Meetのビデオ録画を処理し、メモを作成し、アクションアイテムをキャプチャするAIのミーティングアシスタントアプリを開発する方法を学びましょう」

スタンフォード大学とセールスフォースAIの研究者が「UniControl」という統合的な拡散モデルを発表:AI画像生成における高度な制御のための統一されたモデル

生成型の基礎モデルは、特定のタイプの入力データに似た新しいデータを生成するために設計された人工知能モデルのクラスです。これらのモデルは、自然言語処理、コンピュータビジョン、音楽生成など、さまざまな分野で使用されることがあります。彼らは、トレーニングデータから基礎となるパターンや構造を学び、その知識を使用して新しい似たようなデータを生成します。 生成型の基礎モデルは、画像合成、テキスト生成、推薦システム、薬物探索など、さまざまな応用があります。彼らは常に進化し、生成能力の向上、より多様で高品質な出力の生成、可制御性の向上、および使用に関連する倫理的な問題の理解など、その応用能力を向上させるために研究者が取り組んでいます。 Stanford大学、Northeastern大学、Salesforce AI研究所の研究者たちは、UniControlを開発しました。これは、野生での制御可能なビジュアル生成のための統一拡散モデルであり、言語とさまざまな視覚条件を同時に扱うことができます。UniControlは、複数のタスクを同時に処理し、さまざまな視覚条件をユニバーサルな表現空間にエンコードし、タスク間で共通の構造を探求する必要があります。UniControlは、他のタスクや言語プロンプトから幅広い視覚条件を受け取る必要があります。 UniControlは、視覚要素が主な役割を果たし、言語のプロンプトがスタイルと文脈を指示することにより、ピクセルパーフェクトな精度で画像の生成を提供します。研究チームは、UniControlがさまざまな視覚シナリオを管理する能力を向上させるために、事前学習されたテキストから画像への拡散モデルを拡大しました。さらに、彼らはタスクに関する認識能力を持つHyperNetを組み込み、異なる視覚条件に基づいて複数の画像生成タスクに適応することができるようにしました。 彼らのモデルは、ControlNetよりも3Dジオメトリガイドの深さマップや表面法線の微妙な理解を示しています。深さマップ条件により、より正確な出力が生じます。セグメンテーション、openpose、および物体のバウンディングボックスのタスク中、彼らのモデルによって生成された画像は、ControlNetによって生成された画像よりも与えられた条件によりよく整列し、入力プロンプトに対して高い忠実度を確保します。実験結果は、UniControlが同等のモデルサイズを持つ単一タスク制御法の性能をしばしば上回ることを示しています。 UniControlは、ControlNetのさまざまな視覚条件を統合し、新たに見たことのないタスクでゼロショット学習を実行することができます。現在のところ、UniControlは単一の視覚条件のみを受け入れるが、複数のタスクを同時に実行し、ゼロショット学習も可能です。これは、その汎用性と広範な採用の可能性を示しています。 ただし、彼らのモデルはまだ拡散ベースの画像生成モデルの制限を継承しています。具体的には、研究者のトレーニングデータはLaion-Aestheticsデータセットの一部から取得されたものであり、データバイアスがかかっています。UniControlは、バイアスのある、有毒な、性的な、または他の有害なコンテンツの作成をブロックするために、より良いオープンソースのデータセットが利用可能であれば改善することができます。

エンドツーエンドの労働力管理を取得する: Amazon ForecastおよびAWS Step Functions

この記事は、Nafi Ahmet Turgut、Mehmet İkbal Özmen、Hasan Burak Yel、Fatma Nur Dumlupınar Keşir、Mutlu PolatcanおよびGetirのEmre Uzel共著によるゲスト投稿ですGetirは、超高速の食品宅配の先駆けですこのテクノロジー企業は、最後の一マイル配送を飛躍的に改革し、数分で食品を届ける提案をしましたGetirは2015年に設立され、運営しています...

Googleの研究者が新たな大規模言語モデルの能力向上に向けた『Universal Self-Consistency (USC)』を披露

複数の候補者から最も一貫性のある回答を選び出し、特に数理推論やコード生成などのタスクのパフォーマンスを向上させる問題は、Googleの研究者によって彼らのUniversal Self-Consistency (USC) メソッドを介して取り組まれてきました。このメソッドはLLMを活用し、同一の回答形式や実行結果へのアクセスを必要とせずに、標準的な自己整合性と比較可能な結果を達成します。 再ランキングはアウトプットのサンプリングと事後の基準の適用により、言語モデルの生成を改善します。LLMは、人間の参照なしでモデル生成テキストを評価します。提案されたUSCメソッドは、追加のラベル付きデータや外部の再ランキングモデルを必要とせずに、標準自己整合性と同等のパフォーマンスを発揮します。 LLMは数理推論やコード生成などのタスクに優れています。従来のアプローチでは、サンプリングと基準に基づいて選択することで、LLMの出力品質を向上させてきました。自己整合性はユニークな回答を持つ仕事に効果的ですが、開放的な時代には苦労します。USCは、LLMを使用して複数の候補者から最も一貫性のある回答を選びます。多様なベンチマークで実証されたように、回答の抽出を排除したUSCは、開放的な生成タスクの向上に効果的です。 USCメソッドはLLMを用いて複数の候補者から最も一貫性のある回答を選び出すことで、回答の抽出の必要性を排除します。USCは数理推論、コード生成、要約、開放的なQAなどのベンチマークを使用して自己整合性を自由形式の生成タスクに拡張します。アプローチはLLMを使用して複数のサンプルを生成し、一貫性に基づいて回答を選択します。 USCメソッドは、オリジナルの自己整合性アプローチの制限を超えた開放的生成タスクでの有効性を示しています。USCは、異なる回答形式を持つ数理推論タスクで標準の自己整合性に匹敵し、コード生成タスクではコードの実行を必要としない実行ベースの自己整合性と同等の結果を示します。USCは長い文脈の要約タスクでベースラインを常に改善し、TruthfulQAベンチマークで最高の真実性と情報性の評価を受けます。USCのパフォーマンスは異なる回答順序に対して堅牢であり、特定のタスクの微調整によりさらに向上させることができます。 結論として、USCメソッドは長い文脈の要約や開放的な質問応答タスクにおいてベースラインを一貫して上回り、自由形式の生成タスクにおいて非常に効果的であることが示されています。LLMを使用して複数の候補者から最も一貫性のある回答を選び出すことで、数理推論タスクやコード生成タスクなどのさまざまな応用において、類似した回答形式や実際の実行結果を必要としません。USCは、さまざまな文脈で正確で信頼性の高い回答を生成するための貴重なツールです。

「NVIDIAは、最大級のAmazon Titan Foundationモデルのトレーニングを支援しています」

大型言語モデルに関するすべての情報は大きいです。巨大なモデルは、数千台のNVIDIA GPU上で大規模なデータセットをトレーニングします。 これにより、生成AIを追求する企業には多くの重大な課題が生じる可能性があります。 ビルディング、カスタマイズ、および実行するためのフレームワークであるNVIDIA NeMoは、これらの課題を克服するのに役立ちます。 Amazon Webサービスの経験豊かな科学者と開発者チームは、Amazon TitanのためにAmazon Titan foundation modelsを作成しています。Amazon Titanは、foundation modelsのための生成AIサービスです。このチームは過去数ヶ月間、NVIDIA NeMoを使用しています。 「NeMoと協力する主な理由の1つは、拡張性があり、高いGPU利用を可能にする最適化が組み込まれていることで、より大規模なクラスタにスケーリングできるため、顧客へのモデルのトレーニングと配信をより迅速に行えるようになるということです」と、AWSのシニアトレーニングエンジニアであるレナード・ローセン氏は述べています。 大きなこと、本当に大きなことを考える NeMoの並列処理技術により、効率的なLLMトレーニングが規模にわたって行えます。 AWSのElastic Fabric Adapterと組み合わせることで、チームはLLMを多数のGPUに分散してトレーニングを加速することができました。 EFAは、AWSの顧客に10,000以上のGPUを直接接続し、オペレーティングシステムとCPUをNVIDIA GPUDirectを使用してバイパスするUltraCluster Networkingインフラストラクチャを提供します。 この組み合わせにより、AWSの科学者たちは卓越したモデル品質を提供することができました。これは、データ並列処理アプローチのみに頼っている場合には規模で実現不可能です。…

「Unblock Your Software Engineers With Unblocked(アンブロックドでソフトウェアエンジニアを活用しましょう)」

「AIは、私たちのフィールドでますます重要な役割を果たしており、私たち開発者の生産性を大きく向上させる能力を持っていますこれまでに経験したことのない方法で生産性を向上させることができます」

Find the right Blockchain Investment for you

Web 3.0 is coming, whether buy Coins, NFTs or just Coding, everyone can participate.

Advertising with us