「ガウス混合モデル(GMM)の3つのユースケース」
3 Use Cases of Gaussian Mixture Models (GMM)
特徴エンジニアリング、教師なし分類、および異常検知におけるGMMアルゴリズムの多様性
ガウス混合モデル(GMM)は、K-means手法をベースにして各インスタンスの分類確率を予測するためのシンプルでパワフルな教師なし分類アルゴリズムです。このGMMの特性により、さまざまなアプリケーションに対応できます。この記事では、GMMを特徴エンジニアリング、教師なし分類、異常検知にどのように使用できるかについて説明します。
ガウス混合モデル(GMM)とは何ですか?
モデルの説明
データセットの単一または複数の変数のガウス分布は、確率的に集団全体を表現しようとしますが、GMMは、データセット内にサブポピュレーションが存在し、それぞれが独自の正規分布に従うという仮定をします。教師なしの方法で、GMMはデータ内のサブポピュレーションを学習し、各データポイントの確率的な表現を試みます[1]。このGMMの特性により、モデルを使用して、サブポピュレーションに所属する確率が低いとされるポイントを見つけ、そのようなポイントを外れ値として分類できます。
GMMは基本的に、成分を使用してこれらのサブポピュレーションを表現するために多変量ガウス分布を拡張し、成分に適合するように多変量確率分布関数を変更します。優しく思い出していただくと、多変量ガウス分布の確率密度関数は次のようになります:
GMMでは、各インスタンスの確率をすべての成分にわたる確率の合計として変更し、成分の重みをパラメータ化します(𝜙)。GMMは、すべての成分の重みの合計が1であることを要求するため、各成分を全体の比率として扱うことができます。GMMはまた、各成分の特徴量の平均と分散も組み込んでいます。モデルは次のようになります:
多変量分布とGMMの間に類似性があることに注目してください。要するに、GMMアルゴリズムは、各成分の正しい重みが多変量ガウス分布として表現されるものを見つけます。この投稿では、Oscar Contreras Carrasco氏によるGMMの素晴らしい導出が行われています[2]。
We will continue to update VoAGI; if you have any questions or suggestions, please contact us!
Was this article helpful?
93 out of 132 found this helpful
Related articles