浅川伸一 <asakawa@twcu.ac.jp>
脳はシナプス結合の可塑性によって、神経細胞間の結合状態が変化する自己組織化 システムです。感覚器官を通じて外界の情報を取り入れ、効果器(手や足)を通じて 外界に働きかけています。 この外界との相互作用が自己組織化システムのキーポイントです。 閉じたシステムでは絶対に複雑なシステムは形成されません。 熱力学の第 2 法則に矛盾することはどんな場合でもあり得ないからです。脳のなかのどこかに外界に対するイメージ、いわば世界像が形成され、この世界像 に基づいて合目的的な思考や行動が出現できます。この開いた系における自己組織 化は散逸構造とかシナジェニックスと呼ばれることもあります。
ノイマンはまずセルラモデルで自己増殖を考えました。このモデルは無数の同じ構 造をしたセル(細砲)が格子状に配列されている広い平面を考えます。彼はこの平面 上に万能チューリングマシンが作り込めることができることを証明しました。万能 チューリングマシンが作れたということは、各セルの状態を決めることでセル平面 上に任意のコンピュータを埋めこむことができたということです。自己増殖はセル 平面の別の場所に自分と同じコンピュータを作れるかという問題になります。万能 製作機械が自分自身の設計図を埋めこんでコンピュータを作ることができれば良い わけです。自分の子どもの機械を作るのに用いられ、さらに設計図を複写してその 機械に与えるという形で自己増殖機械を作ることができるのです。ここまで説明し て来たところで気づいた人がいるかも知れませんが、われわれ生物の細砲は分裂す るときに、まさに同じことを行なっているわけです。DNA に含まれるアミノ酸の組 み合わせが自己複製を行ない、複雑な生物を形成させることができます。 DNA の構造は突然変異を経てより有用なシステムになることを考えれば、生物はノ イマンが考えた以上のシステム記述がなされていると見ることも可能かと思います。 実際に小さなパーツをランダムに結合させることによって簡単なロボットを作ると いう実検も行なわれています。
外界の情報すなわちデータの相互関係を効率良く表現することは情報科学の分野で も中心的な問題であり、おそらくこのような能力が脳の働きの特徴の 1 つである ということができるでしょう。外界の構造が脳内の地図として表現されていること は以前にも述べました。網膜上の位置と第一次視覚野、内耳の周波数特性と第一次 聴覚野との関係などです。大脳皮質全体のたかだか 10 % を占める第一次感覚野 で起こっていることの類推から、特定のカテゴリーにおける知識表現が脳の各部位 の位置関係として表現されているという可能性があるだろうと考えます。
すなわち、さまざまなレベルの情報表現の自己組織化に対して、たった 1 つの同 じ機能的原理が働いているのではないか、という仮説です。第一次感覚野で表現さ れている情報表現と同じ機能的原理が、知的なレベル(各種の連合野、あるいは前 頭葉)でも同じであると考えてはいけない理由はないはずです。
仮にこの同一の機能的原理が高次の知的活動のためにも働いているのなら、低次の 感覚受容野から階層的に高次の連合野にいたるまで自己組織化によって我々の知的 活動のある部分が説明可能なのかも知れません。自己組織化によって高度に抽象的 な概念が階層的に重ね合わさっていた場合にどのようなことが起こるのでしょうか。 第1次感覚野が物理的な特徴量を表現し、第2次感覚野が具体的な概念を表現して いるとしたら、連合野は抽象的な概念を表象しているのかも知れません。連合野の 連合野である前頭葉では概念の概念の概念が形成されているというのは誇張のしす ぎなのでしょうか。
は入力データセットで、 個のニューロンからなる入力層に与えられ る 個のサンプルデータであるとします。これらのニューロンから 個の出 力層ユニットに全結合している場合を考えます。
(1) |
パターン が与えられたときの 番目の入力層ユニットから出力層ユニット
への結合係数 が式(2)のような Hebb の学習則
(3) |
(4) |
もし仮に学習が起こったとします。この学習成立(収束)した時点での
は になる(すなわちこれ以上結合係数の更新が行なわれ
ない)ことが期待されるので、全入力パターンの平均を考えて
ところが は、実対称行列であり、固有値はすべて正で固有ベク トルは直交します。すなわち Hebb の学習則では有限回の学習によって解が求める ことができません(実際には最大固有値に対応する固有ベクトルの方向に際限無く大きくなっ ていきます) を求める際の中心化によって rank() だから、少なくとも 1 つ 0 固有値が存在します。 すななち、 が(統計学の意味で)分散共分散行列になっていれば Hebb 則 によって は最大固有値に対応する固有ベクトルの方向を向くことが期待さ れるわけです。
そこで、式(2) を修正して
(6) |
が 2 重中心化されていれば、rank
が保証されるこ
とになります。
(7) |
(9) |
(10) |
(11) |
(13) |