あなたの特徴は重要ですか?それが良いということではありません
特徴の重要性はありません
「特徴の重要性」だけでは不十分です。「誤差の寄与」も見る必要があります。モデルにとって有益な特徴を知りたい場合は。
「重要」と「良い」は同義語ではありません
「特徴の重要性」という概念は、機械学習において最も基本的なモデルの説明性の一種として広く使用されています。例えば、Recursive Feature Elimination (RFE) で使用され、モデルの最も重要でない特徴を反復的に削除します。
しかし、それについては誤解があります。
特徴が重要であることは、それがモデルにとって有益であることを意味しないのです!
実際に、特徴が重要であると言っても、それは単にその特徴がモデルによって行われる予測に対して高い貢献をもたらすことを意味します。しかし、そのような貢献は誤っている可能性があります。
単純な例を挙げましょう。データサイエンティストが誤ってモデルの特徴の中から顧客IDを忘れてしまったとします。モデルは顧客IDを高い予測力を持つ特徴として使用しています。その結果、この特徴は実際にはモデルを悪化させてしまいますが、特徴の重要性は高くなります。なぜなら、それは未知のデータに対してうまく機能しないからです。
より明確にするために、2つの概念を区別する必要があります:
- 予測の寄与:特徴による予測の一部です。これは特徴の重要性と同等です。
- 誤差の寄与:モデル内の特徴の存在によって生じる予測誤差の一部です。
この記事では、これらの量を計算する方法と、予測モデルに関する価値ある洞察を得るためにそれらを使用する方法について見ていきます(そして、それを改善するために)。
おもちゃの例から始めましょう
仕事、年齢、国籍に基づいて人々の収入を予測するためのモデルを構築したとしましょう。今、そのモデルを使用して三人の予測を行います。
したがって、真の値、モデルの予測、および生じた誤差があります:
We will continue to update VoAGI; if you have any questions or suggestions, please contact us!
Was this article helpful?
93 out of 132 found this helpful
Related articles