GPT-5から何を期待できるのか?

What to expect from GPT-5?

AIやテクノロジーの急速な進化についていくことは非常に困難に思えるかもしれません。毎週または毎月、何か新しいものが登場し、今回はまた新しいことを学んでいることになります。

今回はGPT-5です。

GPT-4は2023年3月にリリースされましたが、その後、誰もがGPT-5のリリースを待ち望んでいました。 2023年3月27日、Siqi Chenは「gpt5は今年12月にトレーニングを完了する予定です」とツイートしました。 しかし、4月のMITイベントでGPT-5について尋ねられたとき、OpenAI CEOのSam Altmanは「私たちは現在、しばらくの間やらないでしょう」と述べ、この声明は明確にされました。

しかし、一部の専門家は、GPT-4とGPT-5の中間リリースであるGPT-4.5を2023年のQ3 / Q4にリリースすることを提案しています。 現在のモデルに常に改善が加えられており、これはGPT-4.5の潜在的なリリースである可能性があります。 多くの人々は、GPT-4.5にはマルチモーダル機能の可能性があると述べており、これは2023年3月のGPT-4開発者ライブストリームで既に実証されています。

GPT-5には非常に高い期待がありますが、GPT-4にはまだ改善が必要です。 たとえば、GPT-4の推論時間は非常に長く、実行するのに計算コストが高いという課題があります。 GPT-4 APIにアクセスすることに関する他の課題もあります。

しかし、私たちが言えることは、各GPTリリースがAI技術の限界を押し広げ、それが何を成し遂げることができるかを示しているということです。 AI愛好家たちは、GPT-5の画期的な機能を探索することを楽しみにしています。

では、GPT-5からどのような機能を期待できるのでしょうか。 さあ、見てみましょう。

幻覚の低減

これはすべて信頼に関するもので、ほとんどのユーザーがAIモデルを信じない主な理由です。 たとえば、GPT-4は内部的な事実に関する評価で、9つのすべてのカテゴリーでGPT-3.5よりも40%高いスコアを記録しました。これは、GPT-4が不許可コンテンツに対応する可能性が低く、GPT-3.5と比較して40%以上の事実に基づく回答を生成する可能性があることを意味します。

新しいリリースは現在の課題を改善し続けるため、GPT-5は幻覚を10%未満に低減し、LLMsをより信頼できるものにすると言われています。

コンピュート効率

先に述べたように、GPT-4は非常に計算コストが高く、トークンあたり$0.03かかります。これは、GPT-3.5の$0.0002と比較して大きな差です。 GPT-4は1兆パラメーターデータセットとインフラストラクチャでトレーニングされているため、これが原因です。

一方、GoogleのPaLM 2モデルは3400億のパラメーターでトレーニングされており、効率的なパフォーマンスを発揮しています。 OpenAIがGoogleのPaLM 2と競合する計画がある場合は、コストを削減し、GPT-4パラメーターのサイズを縮小しながら、パフォーマンスを維持する方法を考える必要があります。

また、ディープラーニングモデルが新しいデータを予測するために必要な時間である推論時間を改善することも重要です。 GPT-4内の機能とプラグインが増えるほど、コンピューティング効率性が向上します。 開発者はすでにOpenAIに対して、GPT-4 APIが頻繁に応答しなくなるため、GPT-3.5を使用せざるを得ないと苦情を言っています。

これらすべてを考慮すると、OpenAIがより小さく、安価で効率的なGPT-5リリースでこれらの課題を克服することが期待できます。

マルチセンサー

GPT-4のリリースに向けて、多くの人々がそのマルチモーダル機能に熱狂していました。 しかし、GPT-4にはまだ追加されていません。これがGPT-5が登場し、本当にマルチモーダルになる場所であり、画期的な機能を持つことができる場所です。

テキストや画像だけでなく、音声、動画、温度なども扱えるようになると期待できます。 Sam Altmanはインタビューで、「ビデオで何が起こるかを見るのが楽しみです。世界には多くのビデオコンテンツがあります。テキストよりビデオで学ぶことがはるかに簡単なことがたくさんあります」と述べています。

会話をよりダイナミックでインタラクティブにするために使用できるデータの種類を増やすこと。マルチモーダル機能は人工汎用知能(AGI)への最速のリンクになるでしょう。

長期記憶

GPT-4の最大トークン長は32,000トークンで、それは印象的でした。しかし、世界がモデルをリリースし続ける中、Story Writerのようなモデルが65,000トークンを出力できるようになりました。

現在の競争についていくために、GPT-5ではより長いコンテキストの長さが導入され、ユーザーが自分のパーソナと履歴を数年間覚えているAIの友達を持つことができるようになることが期待されます。

改善された文脈理解

大規模言語モデル(LLM)であることから、最初に期待できることは、文脈を理解する能力の改善と強化です。上記の長期記憶に関する点と統合すると、GPT-5は長時間の会話中に文脈を維持する可能性があるかもしれません。ユーザーとして、あなたは要件に一致するよりカスタマイズされた意味のある返答をより多く持つことができます。

これにより、言語のより高度な理解が可能になり、自然言語の主要な構成要素である感情が含まれます。GPT-5の文脈理解の潜在的な能力により、より共感的な返答を行い、会話を継続するための適切な返答を生成することができるかもしれません。

まとめ

GPT-5の潜在的な能力については、リリースに近づくまで詳細が分かりません。この記事は、GPT-4とGPT-3.5が直面する現在の課題、そしてOpenAIがこれらの障壁を乗り越えて高性能なGPT-5をリリースするためにどのようにこれらを活用できるかに基づいています。Nisha Aryaは、データサイエンティスト、フリーランスのテクニカルライター、VoAGIのコミュニティマネージャーです。彼女は特に、データサイエンスのキャリアアドバイスやチュートリアル、データサイエンスに関する理論的な知識を提供することに興味を持っています。また、人工知能が人間の寿命の長さにどのように影響を与えるかを探求したいと考えています。彼女は、他の人々を指導しながら、自分の技術的な知識とライティングスキルを広げることを目指して、熱心に学び続けています。

We will continue to update VoAGI; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more

人工知能

「Kognitosの創設者兼CEO、ビニー・ギル- インタビューシリーズ」

ビニー・ギルは、複数の役職と企業を横断する多様で幅広い業務経験を持っていますビニーは現在、Kognitosの創設者兼CEOであり...

人工知能

『ジュリエット・パウエル&アート・クライナー、The AI Dilemma – インタビューシリーズの著者』

『AIのジレンマ』は、ジュリエット・パウエルとアート・クライナーによって書かれましたジュリエット・パウエルは、著者であ...

機械学習

3つの質問:大規模言語モデルについて、Jacob Andreasに聞く

CSAILの科学者は、最新の機械学習モデルを通じた自然言語処理の研究と、言語が他の種類の人工知能をどのように高めるかの調査...

データサイエンス

「Adam Ross Nelsonによる自信のあるデータサイエンスについて」

データサイエンスの中で新たな分野が現れ、研究内容が理解しにくい場合は、専門家や先駆者と話すのが最善です最近、私たちは...

人工知能

ベイリー・カクスマー、ウォータールー大学の博士課程候補 - インタビューシリーズ

カツマー・ベイリーは、ウォータールー大学のコンピュータ科学学部の博士課程の候補者であり、アルバータ大学の新入教員です...

機械学習

「Prolificの機械学習エンジニア兼AIコンサルタント、ノラ・ペトロヴァ – インタビューシリーズ」

『Nora Petrovaは、Prolificの機械学習エンジニア兼AIコンサルタントですProlificは2014年に設立され、既にGoogle、スタンフ...