主成分分析の確率的な視点
主成分分析の確率的な視点
潜在変数、期待値最大化、および変分推論
データサイエンスと機械学習で主に使用される次元削減技術の一つは、主成分分析(PCA)です。以前、PCAをサポートベクトルマシンとのパイプラインで適用するいくつかの例についてすでに説明しましたが、ここではPCAの確率的な視点を見て、基礎となるデータ構造のより堅牢で包括的な理解を提供します。確率的なPCA(PPCA)の最大の利点の一つは、クラシカルなPCAでは不可能なデータセット内の欠損値の処理ができることです。潜在変数モデルと期待値最大化アルゴリズムについて議論するため、この詳細な記事も参照してください。
この記事から得られる情報は以下の通りです:
- PCAの短い紹介。
- PPCAの数学的な基礎。
- 期待値最大化(EM)アルゴリズムまたは変分推論?パラメータ推定にはどちらを使用するべきか。
- おもちゃのデータセットに対してTensorFlow Probabilityを使用してPPCAを実装する方法。
さあ、これについて深く掘り下げましょう!
1. 特異値分解(SVD)とPCA:
線形代数の主要な重要概念の一つはSVDであり、それは実数または複素行列のための因数分解技術です。例えば、行列Aを以下のように因数分解できます:
- 「HuggingFace Transformers ツールとエージェント:ハンズオン」
- 「xAI:イーロン・マスクの新しいAIベンチャーがウェブサイトの公開と共にそのミッションを明らかにする」
- 期待されるキャリブレーションエラー(ECE)- ステップバイステップの視覚的な説明
ここで、U、Vᵀは直交行列(転置は逆行列に等しい)であり、Σは対角行列です。Aは正方行列である必要はありません。例えば、N×D行列と考えることができます。ここで、Nはインスタンスの数、Dは特徴量の数です。UとVはそれぞれ正方行列(N×N)および(D×D)であり、ΣはN×D行列であり、D×Dの部分は対角線であり、残りの要素はゼロです。
また、固有値分解も知られています。対角化可能な正方行列(B)は以下のように因数分解できます:
ここで、Qは行列Bの第i列が固有ベクトルq_iであるN×Nの正方行列であり、Λは対角行列であり、対角要素は対応する固有値です。
We will continue to update VoAGI; if you have any questions or suggestions, please contact us!
Was this article helpful?
93 out of 132 found this helpful
Related articles