Learn more about Search Results Go - Page 5

大ニュース:Google、ジェミニAIモデルのローンチを延期

予想外の展開となり、Googleは最先端のAIモデル「Gemini」の高い期待を集めるローンチを来年の1月まで延期することを選びました。報道によると、非英語クエリにおけるモデルの信頼性に関してパフォーマンス上の懸念が浮上し、これにより入念な微調整のプロセスが行われることとなりました。このプロセスは、GoogleのCEOであるサンダー・ピチャイが直接主導しています。 グローバル対応のための日程変更 情報筋による報道によれば、New York、Washington、Californiaで予定されていた盛大な公開イベントは、匿名の情報源によると静かに2024年初めに延期され、Geminiが非英語のプロンプトに対して応答する能力に関する懸念に対処することを目的としています。 サンダー・ピチャイの関与 GoogleのCEOであるサンダー・ピチャイは、この延期に対して積極的なアプローチを取り、堅牢なグローバルな言語サポートを保証するための決定を個人的に支持しています。この動きは、Googleが潜在的な問題を解決し、AIモデルの能力を向上させることにより、OpenAIのGPT-4を超えることを目指していることを示しています。 OpenAIの基準を満たすための微調整 関係者によれば、Googleは既に特定の面でOpenAIの高い基準に達することを実現しており、生成型AIモデルの競争の中で際立つように、Geminiの初期バージョンを洗練し、完成させるために積極的に取り組んでいます。 Geminiのマルチモーダルスキルと将来の展望 Geminiの初の発表は、I/O 2023カンファレンスでその印象的なマルチモーダル能力が強調され、従来のモデルとは一線を画しています。テキストや画像の理解を超えて、GeminiはツールやAPIの統合でも優れることを目指し、第三者開発者にとって魅力的な選択肢として位置づけています。Googleは、モバイルに焦点を当てた「Gecko」を含むさまざまなサイズを提供することを想定しています。 また読む: Google I/O 2023で何が起こったのか? 我々の意見 GoogleがGeminiを完成させるための課題に取り組む中、1月の改定されたローンチ日は、同社が画期的なAIモデルを提供するという確固たる決意を示しています。競合他社が設定した基準に対応し、能力を微調整することにより、Googleはこれに満足するだけでなく、それを超えることを目指しています。この遅延は、グローバルな準備と人工知能の進化する景色でGeminiを強力な競争相手として確立するための戦略的な動きを意味しています。1月の発表を待ちながら、Geminiの革新的な機能と能力への期待はますます高まり、人工知能の新時代を約束しています。

Google DeepMind(グーグルディープマインド)が「GNoME(グノーム)」を発表:新素材の安定性を予測し、探索の速度と効率を劇的に向上させる新しいディープラーニングツール

無機結晶は、コンピュータチップ、バッテリー、太陽電池など、現代の多くの技術にとって不可欠です。安定した結晶は、細心の注意を払った試験の結果として数ヶ月かけて生まれるものであり、溶解しないため、新たな技術の実現には不可欠です。 研究者たちは、限られた成果しか挙げられなかった高価な試行錯誤の実験を行ってきました。彼らは既存の結晶を修正したり、他の元素の組み合わせを試したりして、新しい結晶構造を探しました。材料プロジェクトなどによって牽引される計算手法のおかげで、過去10年間には28,000以上の新しい材料が見つかりました。これまで、実験的に有効な材料を信頼性の高い予測できるAI技術の能力は大きな制約でした。 ローレンスバークレー国立研究所とGoogle DeepMindの研究者は、Natureに2つの論文を発表し、自律的な材料合成のためのAI予測の可能性を示しました。この研究では、800年分に相当する約2.2百万の結晶が発見されました。彼らの新しいディープラーニングツールである材料探索のためのグラフネットワーク(GNoME)は、新しい材料の安定性を予測し、発見のスピードと効率を大幅に改善しました。GNoMEは、大量の新しい材料の発見と開発におけるAIの約束を具現化しています。世界中のさまざまな研究室で行われた独立した取り組みによって、これらの新しい構造の中から736個が生み出されました。 GNoMEの導入により、技術的に可能な材料の数は2倍に増加しました。その2.2百万の予測のうち、38万個が安定性の高さから実験的な合成の可能性が最も高いとされています。次世代の電気自動車の効率向上に貢献する新しいバッテリーの材料や、スーパーコンピューターを駆動する超伝導体などが、これらの候補材料に含まれます。 GNoMEは最先端のGNNモデルの一つです。GNNの入力データは原子のつながりに類似したグラフで表されるため、新しい結晶材料の発見に適しています。 GNoMEを訓練するために最初に使用された結晶構造と安定性のデータは、Materials Projectを通じて公開されています。トレーニング手法としての「アクティブラーニング」の使用は、GNoMEの効率を大幅に改善しました。研究者たちはGNoMEを使用して新しい結晶候補を生成し、その安定性を予測しました。彼らは進行中のトレーニングサイクル全体でモデルの性能を評価するため、物理学、化学、材料科学の分野で確立された計算手法である密度汎関数理論(DFT)を使用して原子構造を理解し、結晶の安定性を評価するための反復的なチェックを行いました。モデルトレーニングは高品質なトレーニングデータを使用してプロセスに戻されました。 研究結果は、先行の最新モデルによる外部ベンチマークによって指標が設定されている状態から、材料の安定性予測の発見スピードを約50%から80%に向上させたことを示しています。このモデルの効率の向上により、各発見に必要な計算能力が10%未満から80%以上に向上しました。これらの効率の向上は、AI駆動の材料合成のさらなる進展の道を開くものです。 自律型のラボは、Materials Projectの材料を使用し、GNoMEの安定性情報を活用して、41以上の新しい材料を生み出しました。これはAI駆動の材料合成の更なる進展を可能にする道を開いたものです。 GNoMEの予測は科学コミュニティに公開されています。研究者たちはその化合物を解析し、380,000の材料をオンラインデータベースに追加するMaterials Projectに提供します。これらのリソースの助けを借りて、科学コミュニティが無機結晶の研究をさらに追求し、機械学習技術の潜在能力を実験のガイドラインとして実現することを願っています。

Google DeepMindの研究者がDiLoCoを導入:効果的かつ強靭な大規模言語モデルのトレーニングのための新しい分散型、低通信マシンラーニングアルゴリズム

現実世界のアプリケーションにおける言語モデルのソアリング能力は、標準的なバックプロパゲーションのような従来の方法を使用しての大規模トレーニングに関連する複雑な課題によってしばしば制約されます。Google DeepMindの最新のブレークスルーであるDiLoCo(Distributed Low-Communication)は、言語モデルの最適化において新たな基準を設定します。研究チームの論文「DiLoCo:分散低通信言語モデルのトレーニング」では、革新的な分散最適化アルゴリズムを紹介し、緩く接続されたデバイスのクラスタ上で操作することで、驚異的なパフォーマンス向上と通信の500倍の削減を実現しています。 Federated Learningの原則に触発され、研究者たちは広く認識されたFederated Averaging(FedAvg)アルゴリズムの変種を考案し、FedOptアルゴリズムに似た要素を注入しました。DiLoCoは内部最適化手法としてAdamWを戦略的に取り入れ、外側の最適化手法としてNesterov Momentumを活用し、従来のトレーニングパラダイムに内在する課題に立ち向かう巧妙な融合を実現しています。 DiLoCoの輝きは、3つの基本的な柱にあります: 1. 限られた共有位置の要件:各ワーカーは共有位置のデバイスを必要としますが、必要な総数は著しく小さく、物流の複雑さが軽減されます。 2. 通信頻度の削減:ワーカーはすべてのステップで通信する必要はなく、𝐻ステップごとに同期するだけで、通信オーバーヘッドを数百または数千に大幅に削減します。 3. デバイスの異質性:クラスタ内のデバイスは同一である必要がありますが、DiLoCoは異なるクラスタが異なるデバイスタイプを使用して運用できる柔軟性を提供します。 DiLoCoのトレーニングプロセスは、事前トレーニングされたモデル𝜃(0)を複数回複製することで行われます。各ワーカーは独自のデータシャードでモデルのレプリカを独立してトレーニングし、𝐻ステップ後に外部グラデーションを平均化し、外部最適化手法がグローバルパラメータコピー𝜃(1)を更新し、それがワーカーに配布されます。このサイクルは𝑇回繰り返され、各レプリカのトレーニングは異なるグローバル位置で異なるアクセラレータを使用して行われます。 C4データセットを用いた実験では、8つのワーカーを使用したDiLoCoは、通信を驚異的な500倍削減し、完全同期最適化と同等のパフォーマンスを達成します。さらに、DiLoCoはワーカー間のデータ分布の変動に対して非常に強い耐性を示し、トレーニング中にリソースの可用性の変化にシームレスに適応します。 要するに、DiLoCoは複数の接続が弱いマシン上でトランスフォーマー言語モデルのトレーニングを分散するための堅牢で革新的な解決策として浮上しています。この画期的なアプローチは、インフラの課題だけでなく、卓越したパフォーマンスと適応性を示し、言語モデルの最適化において大きな飛躍をもたらします。 この投稿は、Google DeepMind Researchers Introduce DiLoCo: A Novel…

Gスイートの見逃せない5つのGoogle Duet AIの驚異的な機能

Googleは最新のイノベーション、Duet AIにより再びレベルを引き上げました。このG-Suiteファミリーの強力な追加機能は、Sheets、Meet、Slides、Docs、そしてGmailを通じて生産性を向上させ、タスクを効率化するために設計されています。ここでは、働き方や協力方法を変えるであろうこれらの5つのゲームチェンジングな機能について詳しく見ていきましょう。 1. Sheets + Duet AI = これまで以上に高速な分析 Sheets内のDuet AIは、ユーザーが自然言語を使用して複雑な式を簡略化することで、複雑なタスクを簡略化します。それはタスクやプロジェクトのためのカスタマイズされた計画の作成を容易にします。複雑さと簡素さのギャップを埋めることにより、ユーザーはデータ分析と計画作成のプロセスを大幅にスピードアップすることができます。 2. Meet + Duet AI = より意味のあるコネクション Duet AIによりビデオ会議の体験が向上し、ユーザーは顧客の業界に基づいて背景を個別にカスタマイズすることができます。これにより仮想ミーティングにプロフェッショナルな印象を加えることができます。さらに、ミーティング中の自動メモ機能により、参加者は気を散らさずに重要なポイントを捉えることができます。 3. Slides + Duet…

Google フーバーチャレンジ:レベル3

「Foobarチャレンジは、Googleが主催するコーディングチャレンジであり、PythonまたはJavaのいずれかで完了することができます私はPythonを使用してこの挑戦を完了しましたこの挑戦には独自のサーバーがあり、特定の…」

「AppleとGoogle、ChatGPTを年間アプリに見落とす」

驚くべき事態の中、テックジャイアントのAppleとGoogleは通常のパターンから逸脱し、それぞれの「年間最優秀アプリ」を選びました。ハイキングやバイキングの相棒であるAllTrailsが、AppleのiPhone年間最優秀アプリに輝きましたが、Google Playは教育アプリのImprint: Learn Visuallyを最優秀アプリに選びました。両プラットフォームで唯一無二の選択となったのは、年間最優秀ゲームとして選ばれたHonkai: Star Railです。ただし、歴史上最も急成長した消費者向けアプリであるChatGPTが注目を浴びることはありませんでした。 異例の選択 Appleの異例の選考プロセスからは、新しいまたは技術的に革新的なアプリをクローズアップするのではなく、(優れたモバイルコンパニオンとしての)確立した存在の言語学習アプリDuolingoや旅行アプリFlightyなどの有力候補が含まれていることがわかります。この動きは、確立されたモバイルコンパニオンの認識に移行していることを示しています。 AppleがAIカテゴリーを無視 Appleは、ChatGPTやその仲間たちの驚異的な成功にもかかわらず、今年の最優秀アプリにはAIカテゴリーのアプリを一つも認めませんでした。ChatGPTは、ローンチ後間もなくして1億人のユーザーに到達するなど、最速で成長する消費者向けアプリとして記録を打ち立てました。後にInstagram Threadsがこの記録を超えましたが、ChatGPTのアクティブなユーザーベースはまだ大きなものです。AIカテゴリーを回避する決定には、Appleの戦略的な選択についての疑問が投げかけられます。 Googleのマルチデバイスの焦点 一方、Googleは異なるアプローチを取り、非スマートフォンアプリの発見を促進する取り組みに合致する「マルチデバイス」をクローズアップしました。Spotifyが最優秀マルチデバイスアプリの称号を獲得しましたが、最近のPlayストアの手数料を迂回するためにGoogleとの特別な取り決めが明らかになったことからも、注目を浴びました。最優秀アプリにChatGPTが選ばれなかったにもかかわらず、ユーザーたちは自分たちの選択を声に出し、それを「ユーザーが選んだ年間最優秀アプリ」としました。ChatGPTはユーザーの選択カテゴリーで勝利を収めましたが、元Googleの研究者たちはキャラクターAIでAIカテゴリーのトップに輝きました。 私たちの意見 AppleとGoogleの選択が業界の観察者を惑わすかもしれませんが、選考のダイナミクスは常に消費者の嗜好や市場トレンドの絶え間ない変化を反映しているのです。AIの世界で巨大な存在であるChatGPTが見落とされたことは、予想される進路から意図的に逸脱していることを示唆しています。AIの進歩が支配する時代においては、来年の「年間最優秀アプリ」が人工知能の変革力をよりよく反映することでしょう。

インフレクション-2はGoogleのPaLM-2を超える:AI言語モデルのブレークスルー

In a groundbreaking announcement, Inflection AI, the creators of the popular PI AI Personal Assistant, unveiled their latest achievement. A formidable language model named…

インドのBharatGPTがGoogleの注意を引く

人工知能は、さまざまな産業やセクターを革命化することで、私たちの生活の一部になりました。バーチャルアシスタントから自動運転車まで、AIは近年、大きな進歩を遂げています。人工知能(AI)の急速な進歩に伴い、Googleのようなテックジャイアントは、常にこの分野の有望なスタートアップを探し求めています。最近、Googleの注意を引いたのは、CoRover AIというスタートアップで、インド独自のOpenAIのChatGPTであるBharatGPTの開発元です。Googleは、自社のAI能力を強化するため、このインドのAIスタートアップに400万ドルもの投資を検討しています。この投資は、単なる会社への財政的支援だけでなく、インドの多様な市場における地域に特化したAIソリューションの潜在力に対する認識の証となります。 投資の反響 Googleの潜在的な投資のニュースは、テックコミュニティ全体に大きな波紋を広げました。CoRoverというAIスタートアップは、その会話型AIプラットフォームであるBharatGPTで注目を集めています。このプラットフォームは、複数のインド言語で理解し、応答することに特化しており、言語の多様性がある国では他に類を見ない特徴です。Googleの関心は、地域のユーザーに共鳴する地域に特化したAIの革新に向けたテックタイタンの戦略を裏付けています。 BharatGPT:OpenAIのChatGPTに対するインドの回答 BharatGPTは、12以上のインド言語と120以上の外国語をサポートしており、単なるチャットボット以上のものです。それは文化的な橋です。複数のインド言語で会話できる能力は、包括的なテクノロジーへの大きな飛躍を表しています。このAIプラットフォームの設計は、グローバルなAI巨大企業によって対応されていないインドの広範な人口層に対応しています。Googleの投資は、BharatGPTを新たな高みに押し上げ、一般的な知名度にまで押し上げる可能性があります。OpenAIのChatGPTに似て、BharatGPTはより自然で対話的な体験を目指しています。 関連記事: Altman’s辞任を引き起こした手紙 戦略的な意義 Googleの提案された投資は、単なる財政的支援にとどまりません。これは、Googleの製品とサービスの統合や協力の可能性を開く戦略的な動きです。CoRoverにとっては、成長を加速させるための資源と専門知識へのアクセスを意味します。Googleにとっては、デジタル変革に適したインド市場における根を深める機会です。 インドにおけるAIの未来 インドはAIのイノベーションの拠点として台頭し、いくつかのスタートアップがグローバルなAIの景観において注目を集めています。GoogleのCoRover AIへの投資は、インドをAI業界の重要なプレーヤーとして強化するだけでなく、他のインドのスタートアップにもAI技術の枠を押し広げるインパクトを与えます。 私たちの意見 GoogleがCoRoverのBharatGPTに投資する決定は、インドのAIの潜在力に対するグローバルテックコミュニティの認識を示すものです。これは、数百万人にとってテクノロジーをよりアクセス可能で関連性のあるものにする可能性のあるパートナーシップです。私たちはこの分野を見守りながら、明らかなことは、インドにおけるAIの未来は明るいだけでなく、多言語で包括的なものであるということです。

「GoogleとMITの研究者がStableRepを紹介:合成イメージによるAIトレーニングで機械学習を革新する」

研究者たちは、テキストから画像への変換モデルによって生成される合成画像の潜在能力を探ることで、視覚的な表現を学び、より効率的でバイアスの少ない機械学習の道を開拓しています。MITの研究者によるこの新しい研究では、Stable Diffusionに焦点を当て、合成画像上で自己教師ありの手法を訓練することで、生成モデルが適切に設定されている場合には、実際の画像と同等またはそれ以上の性能を発揮することを示しています。提案された手法であるStableRepは、同じテキストのプロンプトから生成される複数の画像を互いに正として扱うマルチポジティブな対比学習手法を導入しています。StableRepは完全に合成画像のみで訓練され、大規模データセットではSimCLRやCLIPなどの最先端の手法を上回り、言語の指導と組み合わせた場合には5000万枚の実際の画像で訓練されたCLIPよりも優れた精度を達成します。 提案されたStableRepアプローチは、キャプション内の不変性を促進する表現学習の新しい方法を導入しています。同じテキストのプロンプトから生成される複数の画像を互いに正として扱うことで、StableRepはマルチポジティブな対比損失を使用します。その結果、StableRepはSimCLRやCLIPなどの他の自己教師あり手法を上回るImageNet上で顕著な線形精度を達成します。この手法の成功は、Stable Diffusionとテキストプロンプトといった要素を活用し、合成データのサンプリングに対してより大きな制御を行う能力に起因しています。また、生成モデルは訓練データを超えて一般化する可能性を持ち、実際のデータのみに比べてより豊かな合成訓練セットを提供します。 まとめると、この研究はStable Diffusionによって生成された合成画像上で自己教師あり手法を訓練することの驚くべき効果を示しています。StableRepアプローチは、マルチポジティブな対比学習手法を備えることにより、実際の画像を使用した最先端の手法に比べて表現学習における優れた性能を示しています。この研究は、大規模かつ多様なデータセットの取得に対する費用効果の高い代替手法として、テキストから画像を生成する手法によるデータ収集の簡素化の可能性を提示しています。ただし、合成データにおける意味の不一致やバイアスの課題には取り組む必要があり、未整理のウェブデータを訓練に使用することの潜在的な影響も考慮する必要があります。

Find the right Blockchain Investment for you

Web 3.0 is coming, whether buy Coins, NFTs or just Coding, everyone can participate.

Advertising with us