Reading "Topographic Independent Component Analysis"
序
感覚信号の効率的な(即ちスパースな)符号化に関して「視覚野・聴覚野地図の同一適応アルゴリズムによる解釈」に興味を持ったので、論文で使用されているトポグラフィック独立成分分析(TICA)の論文「Topographic Independent Component Analysis」を読もうとしたものの正直よく解らなかった為、Hyvarinen 先生の著「詳解 独立成分分析―信号解析の新しい世界」で勉強してからリベンジした次第。以下に論文の要諦を纏めてみる。
いい加減 blog というメディアに適合していない気がするが……。
モデル
共通の分散
通常の ICA では信号源たる確率変数 si が互いに独立であることを仮定するが、現実には全く独立である場合と言うのは少なくて ICA を行っても幾許かの従属性が「残存」してしまうので、それを使って独立成分の二次元構造を決定しようというのが TICA の趣旨である。
特にこの論文ではエネルギー、即ち si2 の相関に着目し、その相関が強いほど近い位置にあるとする。これは近い位置の成分ほどより共起しやすい(が値自体一方から一方を予測しがたい)と考えている事となる。
例えば変数 σ により成分 si, sj (i ≠ j) に共通な分散が与えられるとし、zi, zj を白色*1な確率変数として
とおく。ここで σ や zi, zj は平均 0 で互いに独立とする。
この時、si と sj の値は互いに無相関だがエネルギーはそうではない。実際、独立性と白色性の仮定から
となり、最後の式は σ2 の分散なので非負である。
成分の空間構造
si の分散 σi2 を確率変数とし、各 si はその分散が与えられた下で互いに独立とする。
σi2 の従属性は近傍函数 h(i,j) により記述する。通常近傍函数はある種の距離について単調減少する函数と定義され、対称性 h(i,j) = h(j,i) や、任意の i について h(i,i) = const. が要求される。
例えば、i 番目の成分の座標が (xi, xj) であるとすると
とすれば自身と上下左右及び斜めの9近傍が取れる。
これにより、非線形函数 φ を*2用いて
で分散を定義する。(正直この φ が何を表すのかよく分からないのだが……)
以上の結果として TICA のモデルは、
と書くことができる。
尤度函数
導出
まずトポグラフィックな成分 s と「高次」の独立成分 u の結合密度分布
から(ps|ui は pzi なので確率密度の変換をしている)、s の周辺密度分布が
で得られる。W = (w1, ..., wn)T として、 ICA の基本モデル s = Wx より
となるから、尤度函数は
となる。
近似
上の尤度函数をそのまま用いるのは計算量が多く賢明でないので、扱い易い近似を求める。
まず ps|ui や pui は全ての i について等しいとし、ps|u = ps|ui はガウス分布とする。これは条件付きでない s の分布が優ガウス的*3である事を意味する。また非線形函数 φ を
で定める。*4
これらの近似より s の周辺密度分布は
となり、和の順序を交換すると
と書ける。
ここで更に
なる近似によって(実際にはこれは下界になっている)
となる。h(i,i) は定数であったので h0 とおき、この積分を各 uk について分解すると
だが、uk についての対称性から
という函数を定義すれば
と簡潔な形になる。
すると、対数尤度函数は
により近似できる。*5
ICA に於いて独立成分の確率分布(の対数)にあたる函数 G は、概形さえ合っていれば正しく収束する事が知られており、著者は指数分布に関連した函数として
を挙げている。ε は数値的な安定性の為に加えられる定数である。係数は si の分散が 1 であるという条件を満たす様に決められる定数だが、以下で W を直交行列とする制約を課す為にこれらは対数尤度を線形変換するだけなので、α1=1, β1=0 などと適当に決めても尤度の最大点には影響しない。
学習則
さて尤度が得られたので、勾配法によりこれを最大化しよう。まず両辺を T で割り
と書き直す。(右辺第1項は標本平均なので、厳密にはこう書くべきでない。)すると wk に関する勾配は
となるから、ベクトル勾配に直すと
となる。
観測値は z = Vx により白色化されているとし、W は直交行列とする。この時 det W は定数なので、結局
となる。ここで
であり、g は G の導関数である。また W は仮定を満たす為に
で毎回正規直交化されなければならない。
毎回標本平均を取るのは実用的でない場面が多いので、確率的勾配降下法に基づくオンライン学習則として
を用いる。これは単に期待値計算を外しただけだが、学習率などに適当な条件を課せばちゃんと収束する事が証明されている。
跋
以上により取り敢えず学習則が導出できたので、一旦筆を擱くとする。やっと原理が解ってきたので愈々実装と行きたいところ。
ただ φ はどうも納得がいかない……。