主成分分析の確率的な視点

主成分分析の確率的な視点

潜在変数、期待値最大化、および変分推論

Hidden Variablesを探す(写真のクレジット:著者)

データサイエンスと機械学習で主に使用される次元削減技術の一つは、主成分分析(PCA)です。以前、PCAをサポートベクトルマシンとのパイプラインで適用するいくつかの例についてすでに説明しましたが、ここではPCAの確率的な視点を見て、基礎となるデータ構造のより堅牢で包括的な理解を提供します。確率的なPCA(PPCA)の最大の利点の一つは、クラシカルなPCAでは不可能なデータセット内の欠損値の処理ができることです。潜在変数モデルと期待値最大化アルゴリズムについて議論するため、この詳細な記事も参照してください。

この記事から得られる情報は以下の通りです:

  1. PCAの短い紹介。
  2. PPCAの数学的な基礎。
  3. 期待値最大化(EM)アルゴリズムまたは変分推論?パラメータ推定にはどちらを使用するべきか。
  4. おもちゃのデータセットに対してTensorFlow Probabilityを使用してPPCAを実装する方法。

さあ、これについて深く掘り下げましょう!

1. 特異値分解(SVD)とPCA:

線形代数の主要な重要概念の一つはSVDであり、それは実数または複素行列のための因数分解技術です。例えば、行列Aを以下のように因数分解できます:

ここで、U、Vᵀは直交行列(転置は逆行列に等しい)であり、Σは対角行列です。Aは正方行列である必要はありません。例えば、N×D行列と考えることができます。ここで、Nはインスタンスの数、Dは特徴量の数です。UとVはそれぞれ正方行列(N×N)および(D×D)であり、ΣはN×D行列であり、D×Dの部分は対角線であり、残りの要素はゼロです。

また、固有値分解も知られています。対角化可能な正方行列(B)は以下のように因数分解できます:

ここで、Qは行列Bの第i列が固有ベクトルq_iであるN×Nの正方行列であり、Λは対角行列であり、対角要素は対応する固有値です。

We will continue to update VoAGI; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more

人工知能

ファイデムのチーフ・プロダクト・オフィサー、アルパー・テキン-インタビューシリーズ

アルパー・テキンは、FindemというAI人材の獲得と管理プラットフォームの最高製品責任者(CPO)ですFindemのTalent Data Clou...

機械学習

3つの質問:大規模言語モデルについて、Jacob Andreasに聞く

CSAILの科学者は、最新の機械学習モデルを通じた自然言語処理の研究と、言語が他の種類の人工知能をどのように高めるかの調査...

AIニュース

OpenAIのCEOであるSam Altman氏:AIの力が証明されるにつれて、仕事に関するリスクが生じる

OpenAIのCEOであるSam Altmanは、特に彼の作品であるChatGPTに関するAIの潜在的な危険性について公言してきました。最近のイ...

機械学習

「機械学習 vs AI vs ディープラーニング vs ニューラルネットワーク:違いは何ですか?」

テクノロジーの急速な進化は、ビジネスが効率化のために洗練されたアルゴリズムにますます頼ることで、私たちの日常生活を形...

人工知能

「ElaiのCEO&共同創業者、Vitalii Romanchenkoについてのインタビューシリーズ」

ヴィタリー・ロマンチェンコは、ElaiのCEO兼共同創設者であり、マイク、カメラ、俳優、スタジオの必要なく、個人が一流のビデ...

人工知能

ベイリー・カクスマー、ウォータールー大学の博士課程候補 - インタビューシリーズ

カツマー・ベイリーは、ウォータールー大学のコンピュータ科学学部の博士課程の候補者であり、アルバータ大学の新入教員です...