「Googleが最新のAIモデルGeminiを発表」

「Googleが最新のAIモデルGeminiを発表」

Google DeepMind、CEO兼共同創業者Demis HassabisとSundar Pichai、GoogleのCEOは、待望のAIモデルであるGeminiを発表しました。これが人工知能の景色を変えることが期待されています。同社のブログ投稿によると、Geminiは先駆的な機能を提供し、OpenAIにアラートを発する可能性があります。

では、Geminiとは何でしょうか?記事によると、Googleのチーム間での幅広い協力の結果、モデルは設計されました。そのマルチモーダルな設計により、テキスト、コード、音声、画像、ビデオなど、さまざまな情報の理解と操作がシームレスに行えるようになっています。

このモデルは、以下の3つの最適化された設定で使用できます:

  • Gemini Ultra:複雑なタスクに最適化されており、Geminiシリーズの中で最も能力が高いモデルです。
  • Gemini Pro:幅広いタスクにスケーリングするために最適化されており、優れたパフォーマンスと柔軟性を提供します。
  • Gemini Nano:デバイス内のタスクに特化し、さまざまなアプリケーションで最適なパフォーマンスを実現します。

では、パフォーマンスはどうでしょうか?Googleチームは、Gemini Ultraを使用してMassive Multitask Language Understanding(MMLU)ベンチマークをテストし、印象的な90.0%のスコアを記録しました。

また、Gemini Ultraは、新しいMultimodal Multitask Understanding(MMMU)ベンチマークで59.4%という最新のスコアを達成し、さまざまなドメインでの高度な推論能力を示しています。以下の素晴らしいビデオでは、数学と物理学の論理的な推論能力が紹介されています。

ただし、Googleチームによれば、Geminiを他のモデルと区別するのは、そのネイティブのマルチモーダル設計です。この設計は、異なるモダリティ用に別々のコンポーネントを組み合わせる従来のアプローチとは異なり、Geminiはほぼすべてのドメインで既存のマルチモーダルモデルを凌駕する能力で、入力をシームレスに理解し推論することができます。

このモデルのマルチモーダルな推論能力により、複雑な文章や視覚情報を理解する能力が向上し、一方で、ポピュラーなプログラミング言語での高品質なコードの生成能力により、世界中のコーディングタスクの基盤モデルとしての地位を築いています。

Geminiの信頼性、拡張性、効率性は、GoogleのAI最適化インフラであるTensor Processing Units(TPU)v4とv5eを使用してトレーニングされることによりさらに向上しています。今日までで最も強力なTPUシステムであるCloud TPU v5pの導入により、Geminiの開発が加速され、開発者やエンタープライズのお客様がより迅速かつ効率的に大規模なAIモデルをトレーニングできるようになります。

Googleはまた、Geminiのコア開発の一環として、安全性と責任を強調しています。彼らのブログでは、このモデルがこれまでのGoogle AIモデルの中で最も包括的な安全性評価を受けていると説明しています。彼らの目標は、バイアスや有害性などの潜在的なリスクに対処し、モデルの評価に多様な視点を提供するために外部の専門家を巻き込むことです。

では、もちろん、みなさんはGeminiをいつ使えるようになるか気になっているはずです。チームによれば、Gemini 1.0はさまざまな製品やプラットフォームで展開されており、Google製品のGemini Proから開始されます。これにはBardも含まれます。

その後、ユーザーはGoogleのサービスにGeminiが統合されることで、より一層充実したエクスペリエンスを期待できます。これには、検索、広告、Chrome、Duet AIなどが含まれます。開発者やエンタープライズのお客様は、12月13日からGemini ProにGoogle AI StudioまたはGoogle Cloud Vertex AIのGemini APIを介してアクセスできます。

Androidの開発者は、Android 14で利用可能なAICoreを通じて、Gemini Nanoの効率を活用する機会も持っています。Geminiのリリースにより、GoogleはAIの競争で先導を目指しているようです。以下にGeminiに関する短い紹介動画を提供しています:

We will continue to update VoAGI; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more