「技術的な視点からのGoogleの最強のマルチモーダルモデルGeminiの紹介」

(Gijutsuteki kanten kara mita Google no saikyo na maruchi mōdaru moderu Gemini no miryoku)

2023年12月6日、Googleは最大かつ最もパワフルなマルチモーダルモデルであるGeminiをリリースしました。

Geminiはマルチモーダルの事前学習を通じてさまざまな入力の理解と推論を実現しています。Geminiはマルチモーダルのベンチマークで人間のエキスパートを超える初のモデルであり、コードの理解、生成などで卓越したパフォーマンスを示します。

Googleの技術レポート[1]は62ページで、そのほとんどがモデルの評価、参考文献、寄稿者のリストに費やされています。詳細な技術情報はほとんど議論されていません。

この記事では、技術レポートの価値ある部分に基づいて、この優れたマルチモーダルモデルについて簡単に紹介します。

モデルファミリー

Geminiには3つの異なるスケールのモデルが含まれており、現在はオープンソースではありません:

  • Ultra:推論やマルチモーダルタスクを含む各種の高度な複雑なタスクで最先端のパフォーマンスを提供する最もパワフルなモデル。
  • Pro:コストとレイテンシを最適化目標とした性能最適化型モデルであり、さまざまなタスクでの大幅なパフォーマンス向上を提供します。
  • Nano:デバイス上で実行するために設計された最も効率的なモデル。Nanoには2つのバージョンがあり、Nano-1は18億のパラメータを持ち、Nano-2は32.5億のパラメータを持ちます。それぞれ低メモリと高メモリのデバイスを対象としています。Nanoは大きなGeminiモデルを蒸留し、4ビットに量子化して構築されています。なぜクラウドベースのUltraモデルを直接使用せずにnanoモデルを構築するのでしょうか?おそらくユーザーのプライバシーを保護することを目的としており、スマートフォンなどのデバイスがユーザーデータをクラウドに送信する必要がないようにします。さらに、推論のコストをクラウドからデバイスに移すことで、通信コストを節約します。

モデルアーキテクチャ

モデルアーキテクチャの詳細は技術レポートで明示されておらず、半ページ程度で簡単に説明されています。要約は以下の通りです:

  • Transformerデコーダーの構造に基づいています[2]。
  • 自然画像、グラフ、スクリーンショット、PDF、ビデオなど、図1に示すようなさまざまな音声および視覚的な入力とともにテキスト入力をサポートしています。
  • モデルは画像とテキストの両方を出力することができます。

We will continue to update VoAGI; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more

コンピュータサイエンス

新しい化学

酸素イオン電池が前進します

AIニュース

「クルーズ、サンフランシスコでの自動運転車のフリートを事故後に削減することに同意」

乗客を乗せた自動運転のクルーズタクシーが、木曜日の夜に消防車と衝突しましたこの事故は、州の当局がこのサービスを拡大す...

AIニュース

OpenAIはGPT-3.5 Turboのファインチューニングによるカスタムパワーを解放します

人工知能の絶え間なく進化する世界で、OpenAIは革命的なアップデートを解放しました。それは、私たちが機械とどのようにイン...

データサイエンス

「限られたトレーニングデータでも、機械学習モデルは信頼性のある結果を生み出すことができる」

研究者は、機械学習モデルが限られた訓練データでも信頼性のある結果を生成できることを示しました

AI研究

このAI研究は、深層学習システムが継続的な学習環境で使用される際の「可塑性の喪失」という問題に取り組んでいます

現代の深層学習アルゴリズムは、トレーニングが一度だけ行われるかなりのデータ収集に焦点を当てています。声の認識や画像の...

AIニュース

「ロボタクシーがサンフランシスコを回るにつれて敵を作り出している」

サンフランシスコでのロボタクシーサービスの拡大について最近承認を受けたにもかかわらず、WaymoとCruiseは交通と安全に関す...