なぜ特徴スケーリングは機械学習において重要なのか?6つの特徴スケーリング技術についての議論

特徴スケーリングの重要性と6つの技術についての議論

標準化、正規化、ロバストスケーリング、平均正規化、最大絶対スケーリング、およびベクトルの単位長さのスケーリング

Photo by Mediamodifier on Unsplash

多くの機械学習アルゴリズムは、同じスケールで特徴を持つ必要があります。

さまざまなシナリオで選択できるさまざまな特徴スケーリング方法があります。これらには異なる(技術的な)名前があります。用語「特徴スケーリング」は、単にこれらの方法のいずれかを指します。

トピック------1. 異なるシナリオでの特徴スケーリング   a. PCA(主成分分析)における特徴スケーリング   b. k-meansにおける特徴スケーリング   c. KNNおよびSVMにおける特徴スケーリング   d. 線形モデルにおける特徴スケーリング   e. ニューラルネットワークにおける特徴スケーリング   f. 収束における特徴スケーリング   g. ツリーベースのアルゴリズムにおける特徴スケーリング   h. LDAにおける特徴スケーリング2. 特徴スケーリングの方法   a. 標準化   b. 最小-最大スケーリング(正規化)   c. ロバストスケーリング   d. 平均正規化   e. 最大絶対スケーリング   f. ベクトルの単位長さのスケーリング3. 特徴スケーリングとデータの分布4. 特徴スケーリング時のデータ漏洩5. 特徴スケーリング方法のまとめ

異なるシナリオでの特徴スケーリング

  • PCAにおける特徴スケーリング: 主成分分析では、PCAの成分は元の特徴の相対的な範囲に非常に敏感です。もし特徴が同じスケールで測定されていない場合、PCAはデータの分散を最大化する成分を選択しようとします。もしいくつかの特徴の範囲がより大きい場合、それらの特徴がPCAプロセスを支配する可能性があります。この場合、真の分散は成分によって捉えられないかもしれません。これを避けるためには、通常PCAの前に特徴スケーリングを行います。ただし、2つの例外があります。もし特徴間のスケールに有意差がない場合、例えば1つの特徴が0から1の範囲にあり、もう1つの特徴が0から1.2の範囲にある場合、特徴スケーリングは必要ありませんが、行っても問題ありません!相関行列を分解してPCAを実行する場合、特徴が同じスケールで測定されていなくても特徴スケーリングは必要ありません…

We will continue to update VoAGI; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more

機械学習

がん診断の革命:ディープラーニングが正確に識別し再分類することで、肝臓がんの組み合わせを強化された治療判断につながります

“` 肝臓癌は、肝細胞癌(HCC)と肝内胆管癌(ICCA)を含む原発性肝癌は、それぞれ異なる特徴を持つため、重要な課題を...

人工知能

「生成AIを通じて脆弱性を明らかにする」

この記事では、コードスキャンについて学び、MuleSoftのAPIでセキュリティに関連するパラメータの露出を報告する方法について...

機械学習

「企業におけるAIの倫理とESGへの貢献の探求」

全世界がAIで賑わっている中で、これらの技術によってもたらされる重要な課題には、倫理的な影響とESGへの関心があります”

データサイエンス

「AIはほとんどのパスワードを1分以内に解読できますAI攻撃からパスワードを保護する方法」

人工知能(AI)は、次の技術革新の波をもたらしています。AIの能力に魅了される一方で、その潜在的なリスクへの懸念も高まっ...

AIニュース

新たなGoogle.orgの助成金により、30万人の学生がロボット技術とAIに触れることができます

Googleの25周年記念に、Google.orgはロボットプログラムとAI教育を支援するために1000万ドルの助成金を提供しています

機械学習

ニューラルネットワークにおける活性化関数の種類

ニューラルネットワークの活性化関数は、ディープラーニングの重要な部分であり、トレーニングモデルの精度と効率を決定しま...