前回:

グラム(カーネル)行列の固有値分解で対応する特徴ベクトルを得る

の続き.前回はグラム行列の固有値分解を用いてを満たす特徴ベクトル(を縦に並べた行列)を求めてみました.いわゆるlow-rank近似というやつなんですかね.そして,新しい入力に対してその特徴ベクトルが計算できない,という問題がありました.

実はこれ,Kernel PCAと同じことをしているということに気づきました.似ているなぁ,とは思っていたのですが.まず問題を整理しよう.

Kernel PCAは,

という問題を解く(の定義が前回と変わっているのでご注意を). ここでと置くと, となり,を得る. ここで,であるためには,としてやる必要がある.最終的に,を得る. さて,元の空間の元 と変換される.これを現在持っているデータに適用すると,となる. これは,前回と全く同じ結果である!驚きだ! ここで,新しい入力を考えると,これに対応する特徴ベクトルはと表される. これで,out-of-sample問題も解決だ.素晴らしいじゃないか.次はLPPとかについて書きたい.