ニューラルネットの基礎#

はじめの一歩#

あるいは当日通信状態が悪かったときのための保険的意味合いで:

cd ~/study/2019tensorflow_playground.git
npm run serve

おそらく排他的論理和を解く最短の python コードを以下に示しました。 ソース

import numpy as np
X = np.array([ [0,0,1],[0,1,1],[1,0,1],[1,1,1] ])
y = np.array([[0,1,1,0]]).T
w0 = 2 * np.random.random((3,4)) - 1
w1 = 2 * np.random.random((4,1)) - 1
for i in range(500):
    l1 = np.tanh(np.dot(X,w0))
    l2 = 1/(1+np.exp(-(np.dot(l1,w1))))
    dl2 = (y - l2) * (l2 * (1 - l2))
    dl1 = dl2.dot(w1.T) * (1 - l1 ** 2)
    w1 += np.dot(l1.T, dl2)
    w0 += np.dot(X.T, dl1)
    print(l2.T) if i % 100 == 0 else Noneimport numpy as np

用語集#

非線形性#

  • GRU
  • LSTM
  • Relu
  • Sigmoid
  • Tanh

結合パターン#

  • Fully connected
  • Convolutional
  • Dilated
  • Recurrent
  • Recursive
  • Skip / Residual
  • Random

最適化#

  • SGD
  • Momentum
  • RMSProp
  • Adagrad
  • Adam
  • Second Order (KFac)

損失関数#

  • 交差エントロピー
  • 敵対
  • 変分
  • 最大対数尤度
  • Sparse
  • L2 Reg
  • REINFORCE

ハイパーパラメータ#

  • Learning Rate
  • Decay
  • Layer Size
  • Batch Size
  • Dropout Rate
  • Weight init
  • Data augmentation
  • Gradient Clipping
  • Beta
  • Momentum

  • 尤度,交差エントロピー,情報理論
  • 各種最適化手法,確率的勾配降下法,AdaGrad,AdaDelta,RMSProp,Adam,自然勾配法,ニュートン法,L-BGFS
  • 主成分分析,特異値分解,自己組織化,(非負)行列因子化法
  • 固有顔,フィッシャー顔,部分空間法
  • マッカロックとピッツの形式ニューロンと生理学的対応物
  • パーセプトロン学習則,誤差逆伝播学習則,正則化項 (L2,L1,L0)
  • 各種活性化関数,シグモイド関数,ハイパータンジェント,整流線形ユニット,ソフトマックス関数,劣微分

付録