グラム行列の固有値分解で特徴ベクトルを得るのはkernel PCAをするのと同じこと
前回:
- グラム(カーネル)行列の固有値分解で対応する特徴ベクトルを得る
の続き.前回はグラム行列の固有値分解を用いてを満たす特徴ベクトル(を縦に並べた行列)を求めてみました.いわゆるlow-rank近似というやつなんですかね.そして,新しい入力に対してその特徴ベクトルが計算できない,という問題がありました.
実はこれ,Kernel PCAと同じことをしているということに気づきました.似ているなぁ,とは思っていたのですが.まず問題を整理しよう.
Kernel PCAは,
という問題を解く(の定義が前回と変わっているのでご注意を). ここでと置くと, となり,を得る. ここで,であるためには,としてやる必要がある.最終的に,を得る. さて,元の空間の元 はと変換される.これを現在持っているデータに適用すると,となる. これは,前回と全く同じ結果である!驚きだ! ここで,新しい入力を考えると,これに対応する特徴ベクトルはと表される. これで,out-of-sample問題も解決だ.素晴らしいじゃないか.次はLPPとかについて書きたい.