Batch Normalization, 批标准化, 和普通的数据标准化类似, 是将分散的数据统一的一种做法, 也是优化神经网络的一种方法.
在之前 Normalization 的简介视频中我们一提到, 具有统一规格的数据, 能让机器学习更容易学习到数据之中的规律.
详细内容可参考https://morvanzhou.github.io/tutorials/machine-learning/ML-intro/3-08-batch-normalization/
关于tensorflow里面的tf.contrib.rnn.BasicLSTMCell 中num_units参数问题
https://blog.csdn.net/u014518506/article/details/80445283#commentBox
关于RNN的问题
https://blog.csdn.net/baimafujinji/article/details/78279746