主成分分析の確率的な視点

主成分分析の確率的な視点

潜在変数、期待値最大化、および変分推論

Hidden Variablesを探す(写真のクレジット:著者)

データサイエンスと機械学習で主に使用される次元削減技術の一つは、主成分分析(PCA)です。以前、PCAをサポートベクトルマシンとのパイプラインで適用するいくつかの例についてすでに説明しましたが、ここではPCAの確率的な視点を見て、基礎となるデータ構造のより堅牢で包括的な理解を提供します。確率的なPCA(PPCA)の最大の利点の一つは、クラシカルなPCAでは不可能なデータセット内の欠損値の処理ができることです。潜在変数モデルと期待値最大化アルゴリズムについて議論するため、この詳細な記事も参照してください。

この記事から得られる情報は以下の通りです:

  1. PCAの短い紹介。
  2. PPCAの数学的な基礎。
  3. 期待値最大化(EM)アルゴリズムまたは変分推論?パラメータ推定にはどちらを使用するべきか。
  4. おもちゃのデータセットに対してTensorFlow Probabilityを使用してPPCAを実装する方法。

さあ、これについて深く掘り下げましょう!

1. 特異値分解(SVD)とPCA:

線形代数の主要な重要概念の一つはSVDであり、それは実数または複素行列のための因数分解技術です。例えば、行列Aを以下のように因数分解できます:

ここで、U、Vᵀは直交行列(転置は逆行列に等しい)であり、Σは対角行列です。Aは正方行列である必要はありません。例えば、N×D行列と考えることができます。ここで、Nはインスタンスの数、Dは特徴量の数です。UとVはそれぞれ正方行列(N×N)および(D×D)であり、ΣはN×D行列であり、D×Dの部分は対角線であり、残りの要素はゼロです。

また、固有値分解も知られています。対角化可能な正方行列(B)は以下のように因数分解できます:

ここで、Qは行列Bの第i列が固有ベクトルq_iであるN×Nの正方行列であり、Λは対角行列であり、対角要素は対応する固有値です。

We will continue to update VoAGI; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more

人工知能

ピーター・マッキー、Sonarの開発者担当責任者-インタビューシリーズ

ピーター・マッキーはSonarのDeveloper Relationsの責任者です Sonarは、悪いコードの1兆ドルの課題を解決するプラットフォー...

人工知能

ベイリー・カクスマー、ウォータールー大学の博士課程候補 - インタビューシリーズ

カツマー・ベイリーは、ウォータールー大学のコンピュータ科学学部の博士課程の候補者であり、アルバータ大学の新入教員です...

人工知能

「コーネリスネットワークスのソフトウェアエンジニアリング担当副社長、ダグ・フラーラー氏 - インタビューシリーズ」

ソフトウェアエンジニアリングの副社長として、DougはCornelis Networksのソフトウェアスタック全体、Omni-Path Architecture...

データサイエンス

「3つの質問:ロボットの認識とマッピングの研磨」

MIT LIDSのLuca CarloneさんとJonathan Howさんは、将来のロボットが環境をどのように知覚し、相互作用するかについて議論し...

人工知能

ディープAIの共同創業者兼CEO、ケビン・バラゴナ氏- インタビューシリーズ

ディープAIの創設者であるケビン・バラゴナは、10年以上の経験を持つプロのソフトウェアエンジニア兼製品開発者です彼の目標...

人工知能

ムーバブルインクのCEO兼共同創設者であるヴィヴェク・シャルマ氏についてのインタビュー・シリーズ

ビヴェクは2010年にムーバブルインクを共同設立し、急速な成長を遂げながら、600人以上の従業員を擁し、世界有数の革新的なブ...