next up previous
Next: Kohonen の SOM Up: 自己組織化 Previous: 古典的多次元尺度法

パーセプトロンモデル

上記の主成分分析を神経回路網の立場で表現します。

tex2html_wrap_inline1707 は入力データセットで、 p 個のニューロンからなる入力層に与えられる n 個のサンプルデータ であると考える。これらのニューロンから m 個の出力層に全結合している モデルを考える。

簡単のため出力層のニューロンが 1 個しかない場合 (m=1) を考えると、 k 番目の入力パターンに対する出力層ニューロンの出力は以下の式、

equation1296

に従う、すなわち線形出力ニューロンを考える。 ここで、 tex2html_wrap_inline1853 は パターン k が与えられたときの i 番目の入力層ニューロン tex2html_wrap_inline1859 と出力層のニューロンとの結合係数である。

仮にパターン k が与えられたときの i 番目の入力層ニューロンから出力層への 結合係数 tex2html_wrap_inline1853 が式(29)のような Hebb の学習則

  equation1305

を用いて更新されたとすると、 tex2html_wrap_inline1853 の漸化式は以下のようになる

equation1309

tex2html_wrap_inline1853 をまとめて tex2html_wrap_inline1725 とベクトル表現すれば

equation1315

学習が成立(収束)した時点での tex2html_wrap_inline1877tex2html_wrap_inline1879 になる (すなわち結合係数の更新が行なわれない)ことが期待されるので、 全入力パターンの平均を考えて

  equation1327

が成り立っていなければならない。

ところが tex2html_wrap_inline1729 は、実対称行列であり、 固有値はすべて正で固有ベクトルは直交する。 すなわち Hebb の学習則では有限回の学習によって 解が求められない(実際には最大固有値に対応する固有ベクトルの方向に際限無く大きくなっていく)gif

そこで、式(29) を修正して

equation1353

のように変形すると結合係数は最大固有値の方向を向き、かつ収束することが Oja (1982) によって証明されている。 その他にも、式(25) の Young-Householder 変換のような 操作などによって、Hebb の学習則を修正する方法が提案されている。

   table1358
Table 1: 田中 1993 より

出力ニューロンが jtex2html_wrap_inline1923 の場合は、

equation1459

を用いて更新すればよい(Sanger,1989)。 Sanger の考え方は、Gram-Schimidt の直交化をそのまま ニューラルネット上で実現したものととらえることができる。



Shinichi ASAKAWA
Fri Nov 7 17:47:03 JST 1997