next up previous
Next: バックプロパゲーション法の応用例 Up: バックプロパゲーション Previous: XOR 問題

誤差逆伝播法(一般化デルタルール)

XOR 問題でも見たように、パーセプトロンの問題点は学習が出力層と 中間層の間だけで行われ、下の層に伝播しないことです。 この点を改良したのがバックプロパゲーション(一般化デルタルール)と 呼ばれるものです。

m 層のネットワークを考え、k 層の i 番目の ニューロンへの総入力を tex2html_wrap_inline1065 , このニューロンの出力を tex2html_wrap_inline1067 , k-1 層の i 番目のニューロンから k 層の j 番目のニューロンへの結合係数を tex2html_wrap_inline1077 と表記します。 各ニューロンの出力は

  eqnarray295

で定義されているものとします。 あるデータ tex2html_wrap_inline807 と教師信号 tex2html_wrap_inline1081 が与えられたとき 教師信号と出力との 2 乗誤差を

equation306

とします。 この誤差関数 E は、教師信号と出力層とが異なれば異なるほど 大きくなるので、 E が減少する方向に tex2html_wrap_inline935 の値を逐次更新していくこと ことを考えます。

  equation314

式(16)は最急降下法と呼ばれる最適化問題を解く手法の一つです。 関数は tex2html_wrap_inline1089tex2html_wrap_inline1091tex2html_wrap_inline1093 の関数ですが、 さらに tex2html_wrap_inline1093tex2html_wrap_inline1097 の関数で、 さらにさらに tex2html_wrap_inline1097tex2html_wrap_inline1101 の関数ですから合成関数の微分公式により

  eqnarray327

となります。もし仮に(13)式で与えられている 出力関数が線形関数 y(x)=x であれば、(20)式は tex2html_wrap_inline1107 となってパーセプトロンの学習式 と一致します。

次に中間層以下第 n 層( tex2html_wrap_inline1111 )のニューロン tex2html_wrap_inline1113 の結合係数の更新には、

eqnarray353

を誤差信号 tex2html_wrap_inline1089 として再帰的に計算します。 以上をまとめると、結合係数の修正量 tex2html_wrap_inline1077

equation377

  equation382

となります。式(25)を見ると誤差の計算がデータ処理とちょうど逆の 流れで入力層まで伝播するようになっています。これが誤差逆伝播法の由来です。

figure398



Shinichi ASAKAWA
Wed Nov 5 10:38:28 JST 1997