「生成タスクを分類タスクに変換する」
Convert generation tasks to classification tasks.
MLシステムはますます強力になり、さまざまな分野での応用が広がっています。さらに、MLやNLPシステムは情報検索システムの品質を向上させるために使用されており、ユーザーが必要な情報をより簡単に見つけることができます。これにより、私たちはさまざまな情報源から情報にアクセスし理解することがより容易になりました。例えば、
- 会話型AIは、人間と自然な会話を行うことができるチャットボットを作成するために使用されることがあります。
- レコメンダーシステムは、ユーザーの興味に関連する製品を推奨するためにNLPを使用することができます。
- 感情分析は、テキストの感情的なトーンを特定するために使用されることがあります。
多くの深層学習モデルのトレーニングには、GPUやTPUなどの膨大な計算リソースが必要です。また、推論のコストも高く、これらのモデルを高性能な状況で適用することは困難です。
パフォーマンスを向上させる方法
MLモデルのパフォーマンスをスケールするためには、主に3つの方法があります。
- 創造的な方法でタスクそのものを簡素化することができます。
- 次に、可能な限り簡単で小さなモデルを考慮することができます。
- 最後に、一部の精度の低下に対して計算の複雑さを減らすための革新的な手法を使用することができます。
これらのうち、最も大きな利益は、タスク自体を創造的に再定義することによって得られることが多いです。例えば、タスクが明確で生成的でない場合、より小さく効率的なモデルを設計して同様のパフォーマンスを達成することができます。
- 「ユナイテッド航空がコスト効率の高い光学文字認識アクティブラーニングパイプラインを構築した方法」
- 『NVIDIAのCEO、ジェンソン・ファング氏がテルアビブで開催されるAIサミットの主演を務めます』
- AIはクリエイティブな思考のタスクで人間を上回ることができるのか?この研究は人間と機械学習の創造性の関係についての洞察を提供します
大きなモデルは生成的なタスクやタスク間の一般化にも役立ちますが、多くの場合、生成的な問題をBERTスタイルのモデルが扱える分類問題に置き換えることができます。言い換えると、モデルが行うことを望む範囲を絞ることができれば、大きなモデルは必要ありません。小さなモデルでも同じような正確さを持つことができ、トレーニングや実行にははるかに高速で安価です。ただし、モデルにさまざまなタスクを実行させたい場合は、大きなモデルが必要になる場合があります。これは、大きなモデルの方が一般化能力が高い可能性があるためです。一部の場合では、生成的な問題を検索問題に置き換えることさえ可能です。
事例:カスタマーサポートテンプレート
例えば、サポートチャットのやり取りの場合、いくつかのやり取りは顧客のプレイブックから回答することができます。この場合、問題をユーザーの要求に最も適したテンプレートを見つけるための検索問題として捉えることが容易であり、また費用も抑えることができます。
トレーニングデータの収集
最初のステップは、顧客サービスログを質問と応答のリストに分割することです。つまり、会話の各ターンを顧客の質問とエージェントの応答などの個々の部分に分割します。これが完了したら、次のステップは、質問と応答を既存のプレイブックリポジトリと照合することです。プレイブックリポジトリは、一般的な顧客の質問に答えるために使用できる事前に書かれた応答のコレクションです。顧客サービスログからの質問と応答をプレイブックリポジトリと照合することにより、システムは顧客の問題を解決するために最も役立つ可能性のある事前に書かれた応答を特定することができます。このプロセスにより、時間を節約し、カスタマーサービスの効率を向上させることができます。
ステージ1:トレーニングデータセットの収集
また、このステップを容易にするためにLLM(Language Learning Model)を使用することもできます。Few-shot promptsを使用して、カスタマーサービスのやり取りごとに適切なテンプレート応答と照合することができます。LLMには、カスタマーサービスのやり取りのいくつかの例とそれに対応するテンプレート応答を提供することで、新しいカスタマーサービスのやり取りを適切なテンプレート応答にマッチングすることを学習することができます。これにより、カスタマーサービス担当者は、各やり取りごとに正しいテンプレート応答を手動で検索する必要がなくなり、多くの時間と労力を節約することができます。
この方法で収集されたトレーニングデータにはいくつかの利点があります:
- オフラインであるため、ユーザーのリクエストへのアクセスなしにトレーニング時に行うことができます。
- サイズが小さいため、簡単に保存および処理することができます。これは、ストレージや処理能力に制限のあるデバイスでの機械学習モデルのトレーニングに重要です。
- データが制御された環境で収集されているため、ノイズやエラーの量が減少し、高い精度で分類タスクに使用することができます。
分類モデルのトレーニング
分類モデルを訓練するためには、以下の3つのステップがあります:
- 取得したテンプレート応答の展開によるタスクの設定。これは、テンプレート応答を単語、フレーズ、エンティティなどの個々の要素に分解することを意味します。取得したテンプレート応答を展開する際には、関連しないテンプレートを選択しないように注意する必要があります。
- SentenceBERT、Word2Vecなどを使用して対話とテンプレートをエンコードする。これは、対話とテンプレートを数値のベクトルとして表現することを意味します。対話とテンプレートをエンコードする際には、意味的な意味を保持するエンコーディング技術を選択する必要があります。
- 単純で安価な機械学習モデルを使用して最適なテンプレートを予測する。モデルは単純なDNNであっても構いません。単純で安価なDNNを使用して最適なテンプレートを予測する場合には、適切なDNNを選択する必要があります。たとえば、複雑な分類には、大量のテキストコーパスでトレーニングされたDNNを使用したい場合があります。
この分類モデルの利点は、訓練コストが低く、サービスも安価であることです。また、モデルの再トレーニングも非常に簡単で、より深い大規模なモデルよりも説明可能性が高いです。
実際には、学習されたモデルはDNNである必要はありません。実行速度とトレーニングの容易さにさらなる利点を持つランダムフォレスト(XGBoostベースの分類器)である場合もあります。この分類モデルの利点は以下の通りです:
-
訓練コストが低い:このモデルは、ディープニューラルネットワークなどの他のモデルと比較して訓練コストが比較的低いです。
-
サービスが安価:このモデルは、訓練が完了した後も比較的安価にサービス提供できます。
-
再トレーニングが容易:このモデルは、新しいデータが利用可能になった場合に簡単に再トレーニングできます。
-
深い大規模なモデルよりも説明可能:このモデルは、深い大規模なモデルよりも説明しやすく、モデルの動作原理や予測の根拠を理解するのに役立ちます。
実際には、学習されたモデルはDNNである必要はありません。実行速度とトレーニングの容易さで知られるランダムフォレスト(XGBoostベースの分類器)である場合もあります。各決定木は異なるデータのサブセットでトレーニングされ、個々の木の予測が組み合わされて最終的な予測が行われます。このアプローチは分類タスクに非常に効果的であり、トレーニングとサービスも非常に高速です。
総括すると、この分類モデルの利点により、さまざまなアプリケーションに適した選択肢となります。訓練とサービスのコストが比較的低く、再トレーニングが容易であり、深い大規模なモデルよりも説明可能です。
We will continue to update VoAGI; if you have any questions or suggestions, please contact us!
Was this article helpful?
93 out of 132 found this helpful
Related articles