GOAT-7B-Communityモデルをご紹介します:GoatChatアプリから収集されたデータセットでLLaMA-2 7Bモデルを微調整したAIモデルです

GOAT-7B-Communityモデル:GoatChatアプリから収集されたデータセットで微調整されたLLaMA-2 7B AIモデル

最近、AI研究所の科学者たちは、GoatChatアプリのデータを使用して、LLaMA-2 7Bモデルを洗練させたGOAT-7B-Communityモデルを発表しました。メタのLLaMA v2 7Bは、GoatChatアプリから得られた新しい詳細なデータセットを利用して、最先端のGOAT-7B-Communityモデルに細かく調整されました。

「アライメント」は、大規模言語モデル(LLM)を作成する上で重要です。教育と経験に基づいて倫理的または違法と考える質問に対して、モデルが回答を拒否することができるという考え方です。アライメントは倫理的なAIの実装において不可欠ですが、モデルの最適化に新たな障害をもたらします。

研究者たちは、アライメントによって生成される応答が顧客が必要とする正確な詳細を提供していないことに気付きました。これらの反応は通常、控えめで詳細を説明することに消極的な傾向があります。質問に対して洞察力のある完全な回答を提供する信頼性のあるモデルを構築するためには、これに注意を払うことが重要です。彼らは、アライメントフィルタが不適切な提案をすべて排除していないことを発見しました。そのため、アライメントは多くのデータセットを廃棄する結果となることがしばしばあります。これは、ケース全体の情報の約3分の1に相当します。

この問題を踏まえ、研究者たちはデータセットのクリーニングのための新しい技術を開発しました。さらに、アライメントされた応答がモデルのパフォーマンスに与える影響を徹底的に理解するために規制された実験を実施しました。

科学者の教育方法

ディープラーニングの計算のバックボーンとして、8つのA100 NVIDIA GPUを装備した高性能ノードが使用されました。研究者たちは、トレーニング手順の基盤としてbfloat16浮動小数点形式とDeepSpeed ZeRO-3最適化を選びました。彼らは3つの反復を行い、進捗状況を2エポックごとに保存しました。しかし、経験的な証拠は、実行の1エポック後に品質が低下し始めたことを示しました。これにより、彼らは戦略を再考し、半ば点検のある1つのトレーニングエポックに落ち着くことにしました。MMLUやBigBench Hardなどの言語モデルを評価するための一般的な基準を使用して、GOAT-7B-Communityモデルを評価しています。チームは現在、すべてのモデルを分析して、まもなくその結果を公開する予定です。

用途

大規模言語モデルやチャットボットの研究は、GOAT-7B-Communityの主な焦点です。自然言語処理、機械学習、人工知能の研究者や愛好家にとって特に役立つでしょう。

制約事項

印象的な推論能力を持つモデルですが、その比較的小さいサイズ(7Bモデルは「小さい」LLMと見なされます)に関連する問題があります。特に顕著なのは「幻覚」です。これらの「幻覚」は、LLMが改善され、拡張されるにつれて解決が進むべき障害です。

「幻覚」は、人工知能の研究で非常に強調される持続的な問題です。究極の目標は、論理的で文法的に正しい回答と事実に忠実な回答を生成できるモデルを開発することです。

リスクと偏見

GOAT-7B-Communityモデルは信頼性が低いため、現実とは異なる結果を返す可能性があります。このモデルは公開データとプロプライエタリデータの両方を使用して教育されたため、GOAT-7B-Communityモデルは不正確で偏った、または非常に問題のある結果を生成することがあります。

主な観察結果

  • このモデルよりも優れた無料の7Bモデルはほとんどありません。
  • 良いMMLUの結果を得るための鍵は、多様で高品質なデータセットです。
  • 現在の13Bモデルと比較して、7Bモデルのパフォーマンスは素晴らしいです。
  • ただし、サイズの制約は依然として適用されます。

今後の展望

研究者たちは、AI研究を新たな高みに導く数々の興味深いプロジェクトを進行中です。彼らは、異なるデータセットの処理方法や収集方法がモデルの推論能力を大幅に向上させる方法に関する新たな発見についての科学論文を作成しています。彼らが得た洞察は、教師あり学習の微調整の成功に重要な影響を与える可能性があります。彼らはAIの分野を進歩させるために重要な役割を果たす可能性があるこれらの洞察を広いコミュニティと共有することを熱望しています。彼らはまた、ディープラーニングにおいてさらに野心的な目標を掲げています。研究者たちは既に、13Bモデルや70Bモデルなど、さらに大規模なLLaMA v2モデルの開発を進めています。これらの大規模なモデルは、さらなる実験と現在のAIモデリングの可能性の範囲を広げることができます。

ディープラーニング研究やモデルトレーニングへの旅は始まったばかりです。研究者たちは、LLMとAIツインテクノロジーの重要な課題について徹底的に研究し、人間のフィードバックからの強化学習の驚異的な潜在能力を引き出すことを目指して取り組んでいます。

We will continue to update VoAGI; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more