浅川伸一 (博士) 東京女子大学 情報処理センター勤務。早稲田大学在学時はピアジェの発生論敵認識論に心酔する。卒業後エルマンネットの考案者ジェフ・エルマンに師事,薫陶を受ける。以来人間の高次認知機能をシミュレートすることを目指している。知的情報処理機械を作ることを通して知的情報処理とは何かを考えたいと思っている。著書に Python で実践する深層学習(2016) コロナ社. ディープラーニング,ビッグデータ,機械学習---あるいはその心理学 (2015) 新曜社。「ニューラルネットワークの数理的基礎」「脳損傷とニューラルネットワークモデル,神経心理学への適用例」いずれも守一雄他編 コネクショニストモデルと心理学 (2001) 北大路書房などがある。
人工知能学会2015年度研究会優秀賞 SIG-LSE:ことば工学研究会 第49回研究会 2015年9月25日 「ニューラルネットワーク物語生成モデル」単著
ノートPCを持参されることをお勧め致します。ですが,会場に電源供給用のアウトレットは人数分確保できないと思われますので充電した状態でお越しください。 ソースコード閲覧のために手慣れたテキストエディタ,または統合環境をご用意ください。 gcc, g++, python (今回は TensorFlow を予定) の処理系はインストールしてあった方が話が早いです。無くても構いません。
@article{1997LSTM,
title={Long Short-Term Memory},
author={Sepp Hochreiter and J\"{u}rgen Schmidhuber},
journal={Neural Computation},
volume={9},
pages={1735--1780},
year={1997}
}
@article{2000Gers,
title={Learning to Forget: Continual Prediction with {LSTM}},
author={Felix A. Gers and J\"{u}rgen Schmidhuber and Fred Cummins},
year={2000},
journal={Neural Computation},
volume={12},
pages={2451--2471}
}
@article{2014Cho_GRU_SSST,
year={2014},
title={On the Properties of Neural Machine Translation: Encoder–Decoder Approaches},
author={Kyunghyun Cho and Bart van Merri\"{e}nboer and Dzmitry Bahdanau and Yoshua Bengio},
journal={ar{X}iv:1409.1259},
archivePrefix={arXiv},
eprint={1409.1259},
primaryClass={cs.CL},
}
@article{2014Chung_GRU_NIPS,
year={2014},
title={Empirical Evaluation of Gated Recurrent Neural Networks on Sequence Modeling},
author={Junyoung Chung and Caglar Gulcehre and KyungHyun Cho and Yoshua Bengio},
journal={ar{X}iv:1412.3555},
archivePrefix={arXiv},
eprint={1412.3555},
primaryClass={cs.NE},
}