next up previous
Next: Hebb の学習則 Up: 階層型のネットワーク Previous: 階層型のネットワーク

階層型ネットワークの行列表現

単純な2層のネットワークを考える。i 番目の出力層の各ニューロンの膜電位 tex2html_wrap_inline803 をまとめて tex2html_wrap_inline805 とベクトル表現し、同様に入力 層も tex2html_wrap_inline807 とする。ニューロン tex2html_wrap_inline809 から ニューロン tex2html_wrap_inline811 へのシナプ ス結合強度を tex2html_wrap_inline813 と表現すれば、入力層から出力層への関係は

eqnarray28

  figure43
Figure 1: ネットワークの行列表現

と表現できる。 しきい値の扱いについては、常に 1 を出力する仮想的なニューロン tex2html_wrap_inline815 を 考えて W に組み込むことも可能です。

実際の出力は tex2html_wrap_inline805 の各要素に対して

  equation52

のような非線型変換を施すのが普通。 この非線型変換が階層型のネットワークには本質的。 なぜならば、この単純なシナプス結合強度を表す行列 tex2html_wrap_inline821 ( tex2html_wrap_inline823 ) , としたとき、 tex2html_wrap_inline825 と置くことによって 本質的には 1 層のネットワークと等価になるからです。

equation61



Shinichi ASAKAWA
Wed Nov 5 10:38:28 JST 1997