マイクロソフトと香港浸会大学の研究者が、WizardCoder A Code Evol-Instruct Fine-Tuned Code LLMを紹介しました

Microsoft and researchers from Hong Kong Baptist University introduced WizardCoder A Code Evol-Instruct Fine-Tuned Code LLM.

大規模言語モデル(LLM)は最近注目を集め、驚異的な成功を収めています。特にOpenAIのChatGPTは注目すべき例です。これらのモデルは、インターネットの大量のデータでの重要な事前学習と、精密な指示データでのさらなる微調整を利用することで、様々なタスクにおいて最先端のゼロショットパフォーマンスを達成しています。このパターンはコードの理解と生成でも見られます。コードを使用する活動に固有の難しさに対処するために、多くのコードLLMが提案されています。これらのコードLLMは大量のコードデータを利用して事前学習を行い、コードに関連する様々な活動で優れたパフォーマンスを発揮することができます。

しかし、事前学習フェーズに主眼を置いた従来のコードLLMとは異なり、コード領域における細かい指示の調整についてさらなる研究が必要です。様々な活動におけるLMの汎化能力を向上させるために、指示の微調整が最初に使用されました。例えば、OpenAIのInstructGPTは、人間の注釈者に具体的な指示を提供してユーザーの目標との一致を確認するよう求めました。最近の取り組みであるAlpacaは、自己指導アプローチを使用して指示データを生成するためにChatGPTを利用しました。Vicunaは、ユーザーがShareGPT.comに投稿したチャットを利用しました。WizardLMはEvol-Instructアプローチを確立し、現在の指示データを修正してより複雑で多様なデータセットを生成しました。

ただし、これらの技術は、一般的なドメインに主眼を置くことが多く、コードドメインを特に考慮して設計すべきであることに注意する必要があります。このプロジェクトのMicrosoftと香港浸会大学の研究者は、コード固有のEvol-Instructを使用して詳細なコード指示データを生成することで、オープンソースのCode LLMであるStarCoderの機能を向上させることを目指しています。これを実現するために、コーディングに関わる活動に特化したいくつかの方法で進化的なプロンプトプロセスを変更しました。進化的なプロンプトは簡素化され、進化的な指示が改善され、コードのデバッグや時間・空間の制約が含まれるようになりました。彼らのアプローチは最初に基本的なCode Alpacaの指示データを開発するために使用されます。

次に、新たに開発されたコード指示に従うトレーニングセットを使用してStarCoderを微調整し、WizardCoderを得ます。彼らのWizardCoderは、HumanEval、HumanEval+、MBPP、およびDS-100の4つのコード生成ベンチマークの実験結果によると、他のすべてのオープンソースのCode LLMを凌駕し、最先端のパフォーマンスを達成します。HumanEvalでは、pass@1スコアが著しく向上し、HumanEvalで+22.3(57.3 vs 35.0)の増加、MBPPで+8.2(51.8 vs 43.6)の増加が見られます。驚くべきことに、WizardCoderは、AnthropicのClaudeやGoogleのBardよりも、HumanEvalとHumanEval+における合格率において優れた結果を示しています。それにもかかわらず、WizardCoderはかなり小さいにも関わらず、主要なクローズドソースのLLMであるClaude、Bard、PaLM、PaLM-2、およびLaMDAを超えてコード生成の面で優れています。

以下は、この研究の貢献の要約です:

• コードのEvol-Instructを適用したWizardCoderは、オープンソースのCode LLMであるStarCoderの機能を向上させます。

• WizardCoderは、コード生成の面でStarCoder、CodeGen、CodeGee、CodeT5+、InstructCodeT5+、StarCoder-GPTeacher、Instruct-Codegen-16Bを含む他のすべてのオープンソースのCode LLMを大きく凌駕しています。

• サイズがかなり小さいにもかかわらず、WizardCoderはClaude、Bard、PaLM、PaLM-2、およびLaMDAを含む主要なクローズドソースのLLMを超えてコード生成の面で優れています。

We will continue to update VoAGI; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more

機械学習

「生成AIをめぐる旅」

私の豊富な経験に深く踏み込んで、全力でGenerative AIを受け入れ、あなたが利益を得るために活用できる貴重な洞察と知識を得...

AIニュース

GoogleのプロジェクトOpen Se Curaをご紹介しますこれは、セキュアでスケーラブル、透明性の高い、効率的なAIシステムの開発を加速するためのオープンソースフレームワークです

AIの成長とともに、それは生活のあらゆる側面で使用されています。その応用はあらゆる分野に広がり、さまざまな分野への取り...

機械学習

AI幻覚とは何ですか?AIチャットボットで何が間違っているのですか?幻覚を起こしている人工知能を見つける方法は?

AI幻覚は、新しい問題ではありません。人間が行ってきたことを以前はAIが行うようになり、過去数年間で人工知能(AI)はかな...

機械学習

「Zephyr-7Bの内部:HuggingFaceの超最適化LLM、より大きなモデルを上回り続けている」

ZEPHYR-7Bは、AIコミュニティで非常に好評を得ている新世代の大型言語モデル(LLM)の1つですHugging Faceによって作成された...

機械学習

「マッキンゼー・レポートからの5つの重要な洞察:創発的AIの未来への影響」

人工知能(AI)の変革力は既に仕事の風景を変え始めており、McKinseyのレポート「2023年のAIの状況:創造的AIのブレイクアウ...

機械学習

このAI論文は、柔軟なタスクシステムと手順的生成による強化学習を革新するNeural MMO 2.0を紹介しています

MIT、CarperAI、Parametrix.AIの研究者らは、Neural MMO 2.0を導入しました。これは、多様な目的と報酬信号を定義できる柔軟...