マイクロソフトと香港浸会大学の研究者が、WizardCoder A Code Evol-Instruct Fine-Tuned Code LLMを紹介しました

Microsoft and researchers from Hong Kong Baptist University introduced WizardCoder A Code Evol-Instruct Fine-Tuned Code LLM.

大規模言語モデル(LLM)は最近注目を集め、驚異的な成功を収めています。特にOpenAIのChatGPTは注目すべき例です。これらのモデルは、インターネットの大量のデータでの重要な事前学習と、精密な指示データでのさらなる微調整を利用することで、様々なタスクにおいて最先端のゼロショットパフォーマンスを達成しています。このパターンはコードの理解と生成でも見られます。コードを使用する活動に固有の難しさに対処するために、多くのコードLLMが提案されています。これらのコードLLMは大量のコードデータを利用して事前学習を行い、コードに関連する様々な活動で優れたパフォーマンスを発揮することができます。

しかし、事前学習フェーズに主眼を置いた従来のコードLLMとは異なり、コード領域における細かい指示の調整についてさらなる研究が必要です。様々な活動におけるLMの汎化能力を向上させるために、指示の微調整が最初に使用されました。例えば、OpenAIのInstructGPTは、人間の注釈者に具体的な指示を提供してユーザーの目標との一致を確認するよう求めました。最近の取り組みであるAlpacaは、自己指導アプローチを使用して指示データを生成するためにChatGPTを利用しました。Vicunaは、ユーザーがShareGPT.comに投稿したチャットを利用しました。WizardLMはEvol-Instructアプローチを確立し、現在の指示データを修正してより複雑で多様なデータセットを生成しました。

ただし、これらの技術は、一般的なドメインに主眼を置くことが多く、コードドメインを特に考慮して設計すべきであることに注意する必要があります。このプロジェクトのMicrosoftと香港浸会大学の研究者は、コード固有のEvol-Instructを使用して詳細なコード指示データを生成することで、オープンソースのCode LLMであるStarCoderの機能を向上させることを目指しています。これを実現するために、コーディングに関わる活動に特化したいくつかの方法で進化的なプロンプトプロセスを変更しました。進化的なプロンプトは簡素化され、進化的な指示が改善され、コードのデバッグや時間・空間の制約が含まれるようになりました。彼らのアプローチは最初に基本的なCode Alpacaの指示データを開発するために使用されます。

次に、新たに開発されたコード指示に従うトレーニングセットを使用してStarCoderを微調整し、WizardCoderを得ます。彼らのWizardCoderは、HumanEval、HumanEval+、MBPP、およびDS-100の4つのコード生成ベンチマークの実験結果によると、他のすべてのオープンソースのCode LLMを凌駕し、最先端のパフォーマンスを達成します。HumanEvalでは、pass@1スコアが著しく向上し、HumanEvalで+22.3(57.3 vs 35.0)の増加、MBPPで+8.2(51.8 vs 43.6)の増加が見られます。驚くべきことに、WizardCoderは、AnthropicのClaudeやGoogleのBardよりも、HumanEvalとHumanEval+における合格率において優れた結果を示しています。それにもかかわらず、WizardCoderはかなり小さいにも関わらず、主要なクローズドソースのLLMであるClaude、Bard、PaLM、PaLM-2、およびLaMDAを超えてコード生成の面で優れています。

以下は、この研究の貢献の要約です:

• コードのEvol-Instructを適用したWizardCoderは、オープンソースのCode LLMであるStarCoderの機能を向上させます。

• WizardCoderは、コード生成の面でStarCoder、CodeGen、CodeGee、CodeT5+、InstructCodeT5+、StarCoder-GPTeacher、Instruct-Codegen-16Bを含む他のすべてのオープンソースのCode LLMを大きく凌駕しています。

• サイズがかなり小さいにもかかわらず、WizardCoderはClaude、Bard、PaLM、PaLM-2、およびLaMDAを含む主要なクローズドソースのLLMを超えてコード生成の面で優れています。

We will continue to update VoAGI; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more

機械学習

PyTorchを使った転移学習の実践ガイド

この記事では、転移学習と呼ばれる技術を使用して、カスタム分類タスクに事前学習済みモデルを適応する方法を学びますPyTorch...

データサイエンス

AIによる光通信の加速化

通信効率の向上は、光フォトニクス技術を人工知能に導入するのに役立ちます

機械学習

「AIとML開発言語としてのPythonの利点」

「AIやMLなどのツールを使用して、ウェブ開発会社が業界を征服するためにPythonがますます使用されている理由を発見してくだ...

機械学習

欠陥が明らかにされる:MLOpsコース作成の興味深い現実

不完全なものが明らかにされる舞台裏バッチ特徴ストアMLパイプラインMLプラットフォームPythonGCPGitHub ActionsAirflowMLOps...

AI研究

アムステルダム大学とクアルコムAIの研究者がVeRAを発表:LoRAと比べて訓練可能なパラメーターの数を10倍削減する革新的なファインチューニングAI手法

自然言語処理の応用範囲の拡大に伴い、最小限の計算複雑性とメモリ要件で特定の指示を効果的に理解し行動するモデルへの需要...

機械学習

このAI論文では、「ステーブルシグネチャ:画像透かしと潜在的な拡散モデルを組み合わせたアクティブ戦略」が紹介されています

生成モデリングと自然言語処理の最近の進歩により、DALL’E 2やStable Diffusionなどのツールを使用して、写真のような...