next up previous
Next: パーセプトロンの学習 Up: 階層型のネットワーク Previous: Hebb の学習則

パーセプトロン(Rosenblatt, 1958)

McCulloch and Pitts の形式ニューロンを用いて学習則に Hebb 則を使った モデル。

  figure146
Figure 2: パーセプトロンの概略図, Minsky and Papert(1989)

パーセプトロン perceptron は、3 層の階層型ネットワークでそれぞれ、 S(sensory layer), A(associative layer), R(response layer) と呼ぶ。 tex2html_wrap_inline891 のうち パーセプトロンの本質的な部分は tex2html_wrap_inline893 の間の学習にある。

入力パターンに tex2html_wrap_inline895tex2html_wrap_inline897 とがある。 パーセプトロンは tex2html_wrap_inline895 が入力されたとき 1, tex2html_wrap_inline897 のとき 0 を出力する 機械である。 出力層(R) の i 番目のニューロンへの入力(膜電位の変化) tex2html_wrap_inline911

  equation154

ここで中間層(A)の j 番目のニューロンの出力 tex2html_wrap_inline811 とこのニューロンとの 結合係数を tex2html_wrap_inline813 、しきい値を tex2html_wrap_inline921 とした。 このニューロンの出力 tex2html_wrap_inline811 (活動電位、スパイク)は、

equation161

と表される。 式(9)の意味を理解するために以下の図を参照gif

  figure170
Figure 3: 線形判別関数

図からわかるとおり、w は線形判別関数の法線ベクトルになっている。 gif

パーセプトロンによるパターン分類とは、 出力細胞が1つの場合、 入力パターン空間(n 個の入力があれば n次元空間)を tex2html_wrap_inline947 を満たす境界(n-1次の超平面)によって 2 つの部分空間に分割することであると言える。





Shinichi ASAKAWA
Wed Nov 5 10:38:28 JST 1997