新しいAIモデル、たった30BパラメーターでGPT-3を凌駕する

New AI model surpasses GPT-3 with just 30B parameters.

世界的に有名なオープンソース言語モデル(LLMs)プロバイダーであるMosaicMLは、最新世代のNVIDIA H100アクセラレータを搭載した画期的なMPT-30Bモデル、すなわちBase、Instruct、Chatを発表しました。これらの最新鋭モデルは、元のGPT-3に比べて品質が大幅に向上しています。

また読む: Large Language Models(LLMs)とは何ですか?

MPT-7Bの前例のない成功とMPT-30Bへの進化

2023年5月のリリース以来、MPT-7Bモデルは、330万ダウンロードという驚異的な数字を叩き出し、業界を席巻しています。この成功を更に広げるため、MosaicMLは、非常に期待されていたMPT-30Bモデルをリリースしました。これにより、様々なアプリケーションで新しい可能性が開け、更なる高みに到達しました。

MPT-30Bの無比な機能

MPT-30Bの最も注目すべき成果の1つは、たった30億のパラメータで、GPT-3の175億のうちの一部を使用して、GPT-3を超える品質を実現することができたことです。この画期的なパラメータ数の削減により、MPT-30Bは、ローカルハードウェアの導入にもよりアクセスしやすくなり、推論のコストも大幅に削減されます。さらに、MPT-30Bをベースにしたカスタムモデルのトレーニングに関連する費用は、オリジナルのGPT-3をトレーニングする見積もりよりも明らかに低くなっており、企業にとって魅力的な選択肢となっています。

もっと詳しく知る:実際のユースケースに向けたGPT3の大規模言語モデルのカスタマイズ

さらに、MPT-30Bのトレーニングには、最大8,000トークンの長いシーケンスが含まれており、データ重視のエンタープライズアプリケーションを処理できるようになっています。これは、NVIDIAのH100 GPUを利用して、優れたスループットと高速なトレーニング時間を実現しています。

また読む:中国の強力なNvidia AIチップの隠された市場

MPT-30Bの無限のアプリケーションを探る

多くのビジョンを持った企業が、MosaicMLのMPTモデルを活用し、AIアプリケーションを革新しています。

  • 先進的なWebベースのIDEであるReplitは、MosaicMLのトレーニングプラットフォームを活用して、優れたコード生成モデルを構築することに成功しました。Replitは、独自のデータを活用することで、コードの品質、スピード、コスト効率を著しく向上させました。
  • チャットボットの開発に特化した革新的なAIスタートアップであるScatter Labは、MosaicMLの技術を活用して独自のMPTモデルをトレーニングしました。その結果、英語と韓国語の両方を理解できる多言語の生成AIモデルが作成され、広範なユーザーベースのチャット体験を大幅に向上させました。
  • 世界的に有名な旅行費用管理ソフトウェア会社であるNavanは、MPTが提供する堅牢な基盤を活用して、バーチャルトラベルエージェントや会話型ビジネスインテリジェンスエージェントなどの最新アプリケーションにカスタマイズされたLLMsを開発しています。Navanの共同創設者兼CTOであるIlan Twig氏は、MosaicMLの基礎モデルが、際立った効率性とスケールでの推論を提供すると同時に、非常に優れた言語能力を提供していると熱狂的に称賛しています。

もっと詳しく知る:AIの力を活用するビジネスリーダーには、DataHack Summit 2023の「AI for Business Leaders」ワークショップが必須です。

MPT-30Bのパワーにアクセスする

開発者は、オープンソースモデルとして利用可能なHuggingFace Hubを介して、MPT-30Bの非凡な能力に簡単にアクセスできます。これにより、開発者は、自分たちのデータを使用してモデルを微調整し、自分たちのインフラストラクチャで推論をシームレスに展開することができます。また、開発者は、MPT-30B-Instructと呼ばれるMosaicMLの管理されたエンドポイントを選択することもできます。これは、同様のエンドポイントと比較して、断然低コストでモデル推論を行うことができます。1,000トークンあたりわずか$0.005の価格で提供されるMPT-30B-Instructは、開発者にとって非常にコスト効果が高い選択肢です。

私たちの見解

MosaicMLがMPT-30Bモデルを画期的にリリースしたことは、大規模言語モデルの領域における歴史的なマイルストーンとなります。これにより、企業は、生成AIの無類の能力を活用しながら、コストを最適化し、データに完全にコントロールを保ちます。最後に、MPT-30Bは、無比の品質とコスト効率を提供する真のゲームチェンジャーであり、より多くの企業がこの変革的なテクノロジーを受け入れ、産業全体に革新をもたらすために活用することで、未来には無限の可能性があります。

We will continue to update VoAGI; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more

AIニュース

ケシャヴ・ピンガリ氏がACM-IEEE CSケン・ケネディ賞で表彰されました

「Pingaliさんに賞が正式に贈られるのは、11月に高性能コンピューティング、ネットワーキング、ストレージ、アナリティクスの...

機械学習

このAI論文では、Complexity-Impacted Reasoning Score(CIRS)を紹介していますこれは、大規模な言語モデルの推論能力を向上させるためのコードの複雑さの役割を評価するものです

大規模言語モデル(LLM)は、具現化された人工知能の問題解決における汎用的なアプローチとなっています。効率的な制御のため...

機械学習

Google AIは、アクティブノイズキャンセリング(ANC)ヘッドフォンのための人工知能搭載の革新的な心臓モニタリングモダリティである音響脈波計(APG)を導入します

コンシューマーエレクトロニクスと健康技術の分野において、活発なノイズキャンセリング(ANC)ウェアラブルに健康モニタリン...

AI研究

「ハギングフェイスの研究者たちは、Distil-Whisperを紹介しました:高性能でリソースが限られた環境におけるギャップを埋めるコンパクトな音声認識モデル」

ハギングフェイスの研究者たちは、リソース制約のある環境での大規模な事前学習済音声認識モデルの展開の問題に取り組んでき...

機械学習

「コンピュータビジョン、言語モデルが見たものを理解するのをサポートする」

マサチューセッツ工科大学と他の研究者たちは、コンピュータ生成データを使用して、ビジョンと言語モデルが概念をより良く理...