パターン c に対する教師信号を tc と書くことにすると
パーセプトロンの学習、すなわち結合強度の更新式は
入力 2 出力 1 のネットワークを考えれば、このネットワークへの入力全体は 2 次元平面で表現できる。
この平面(この場合は入力層のニューロン数が 2 だったから平面であったが) のことを入力空間と呼ぶことがある。 パーセプトロンにおける学習とはこの空間を 2 分割するような領域に分けることである。
いま、閾値が 0、すなわち入力データを 2 群に分ける直線が原点を通る場合
を考えることにする。このとき
w1x1 + w2x2 > 0 であれば 1 を出力し
ならば0 を出力するとは ベクトル (x1,x2) と ベ
クトル (w1,w2) との内積の正負の判断をしているのと同義である。なぜなら
ベクトルの内積とは 2 通りの表現があって
![]() |
(4) |
Figure.2 のように斜線をつけた領域にある全てのベクトルは、
2 群を判別する直線の法線ベクトルとの内積が正である。つまり
は
平たく言えば二つのベクトルのなす角が 90 度より小さいとき
正、大きいとき負になる。
このパーセプトロンに学習すべきデータが一つ入って来たと仮定しよう。
Figure 3 は 1 と出力すべき(y=1 すなわち法線ベクトルとの内積が正であるべき)データを、誤って 0 と出力してしまったという事態である。
このとき、式(3) 内の
は 1 - 0 = 1 になるので
結合荷重の更新式、すなわち法線ベクトルの更新式は
これによって判別直線が回転し
今度は法線ベクトルとデータ
とのなす角が 90 度以内になる。
0 と出力すべきデータを、誤って 1 と出力してしまった場合は
ベクトルの引き算になる。
最後に判別直線が原点を通らない場合、すなわち閾値が 0 ではない場合を見ておこう。
この場合は、原点を通る直線を並行移動したことになるので、 原点を通る判別直線では 1 と答えるべきの領域(図中の白マル)に入ってしまっている 点を底アゲして 0 と答えるべき領域(図中の黒マル) の領域にするために 行われると考えることができる。