「SelFeeに会いましょう:自己フィードバック生成によって強化された反復的自己修正LLM」

SelFee Reinforced Iterative Self-Correcting LLM through Self-Feedback Generation

最近の研究では、自然言語フィードバックが言語モデルの性能向上に効果的であることが示されています。KAISTの研究チームは、自己フィードバックと自己修正の生成に特化した新しいSelFeeモデルを紹介しました。従来の手法とは異なり、SelFeeは高品質な応答を生成するために外部の大規模な言語モデルやタスク固有のモデルを必要としません。

SelFeeは、単一の推論内で高品質な応答を達成するまで、回答を継続的に修正するためのファインチューニングされたLLaMAベースの指示従順モデルです。与えられた指示に基づいて、モデルは初期解と自己フィードバックシーケンスを生成します。生成されたフィードバックの内容を分析することで、モデルは修正が必要かどうかを判断します。修正が必要な場合、フィードバックに基づいて修正された回答を生成します。この反復的な修正プロセスは、既存のLLaMAベースのモデルと比較して改善された解をもたらします。

研究者たちは、ShareGPT、Alpaca、Math、Code、Flan Collectionなど、さまざまなソースから多様な指示データを収集しました。フィードバックと修正データの不足に対処するために、彼らはChatGPTという教師モデルからの蒸留プロセスを使用してデータセットを拡張しました。このアプローチにより、より手頃なコストでフィードバックと修正のインスタンスを生成することができました。

モデルをトレーニングするために、研究者たちはOpenAI APIを使用したデータ拡張技術を利用しました。彼らは複数のソースから指示を収集し、それらをChatGPTに入力して対応する回答を生成しました。次に、生成された回答に対してChatGPTにクエリを行い、フィードバックを得ました。修正が必要とされる場合、ChatGPTは自己生成のフィードバックに基づいて回答を修正しました。このプロセスは、さらなる修正が不要になるまで繰り返されました。

SelFeeはFastChatフレームワークを使用してトレーニングされました。指示に基づいて、モデルは回答とフィードバックの連鎖、修正を生成するためにファインチューニングされました。研究者たちは、推論プロセス中に必要な最小の修正を増やすことで回答の品質が向上することを観察しました。3回の修正が最も良いパフォーマンスを示し、修正の必要がない13BのSelFeeモデルよりも少なくとも3回の修正を生成する7BのSelFeeモデルの方が性能が優れていることがわかりました。

評価について、研究者たちはVicuna評価設定を採用しました。これには80の異なるクエリが含まれています。人間の評価ではなく、GPT-4を評価者として使用したパイロット評価を行いました。GPT-4の位置バイアスを考慮して、ChatGPTとの相対スコアを報告しました。

SelFeeはVicuna評価設定でChatGPTと同等のパフォーマンスを示しましたが、数学、推論、事実、コーディングなどの分野においてChatGPTと比べて知識が不足していることがわかりました。

全体的に、SelFeeは言語モデルの自己フィードバックと自己修正の生成において革新的なアプローチを提供します。モデルを継続的に回答を修正するようにファインチューニングすることで、SelFeeは既存のモデルと比較して改善されたパフォーマンスを実現します。研究の結果は、反復的な修正が言語モデルの応答の品質向上において重要であり、モデルの推論コンピューテーションを増やすことが単にサイズを増やすよりも効果的であることを示しています。

We will continue to update VoAGI; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more

機械学習

KPMGのジェネレーティブAIの未来への飛躍

驚くべき出来事の中で、コンサルティングと金融の世界は、生成型AIの台頭により、変革の旅を経験しています。ビッグフォーの...

データサイエンス

AIのマスタリング:プロンプトエンジニアリングソリューションの力

私と一緒にAIプロンプトエンジニアリングの素晴らしさを発見しましょう!ユーモアのある効果的なプロンプトの制作によって、A...

機械学習

AIの脅威:自動化された世界における見えない課題

この記事では、2023年に現れるAIの脅威、AIシステムのセキュリティーの複雑さ、そしてAI駆動の防御、規制、教育の重要性につ...

データサイエンス

データ駆動型生成AI:データと分析の利点

ジェネラティブAIは、データと分析の領域を革命化し、生産性を高め、納期を短縮すると位置付けられています

機械学習

「トランスフォーマーの再定義:シンプルなフィードフォワードニューラルネットワークが効率的なシーケンス・トゥ・シーケンスのタスクにおいて注意機構を模倣する方法」

ETHチューリッヒの研究者は、標準の浅いフィードフォワードネットワークを利用してトランスフォーマーモデルの注意メカニズム...

AI研究

メリーランド大学の新しいAI研究は、1日で単一のGPU上で言語モデルのトレーニングをするためのクラミングの課題を調査しています

自然言語処理の多くの領域では、言語解釈や自然言語合成を含む機械学習モデルの大規模トレーニングにおいて、トランスフォー...