深度学习 吴恩达深度学习课程2第三周 tensorflow实践 参数初始化的影响

博主 撸的  该节 代码 地址 :https://github.com/LemonTree1994/machine-learning/blob/master/%E5%90%B4%E6%81%A9%E8%BE%BE%E6%B7%B1%E5%BA%A6%E5%AD%A6%E4%B9%A0/Untitled%20Folder%202/Untitled%20Folder%203/tf_tutorial.ipynb

博主参考的大牛(CSDN  )的实践 :https://blog.csdn.net/u013733326/article/details/79971488

实践中遇到的坑:

1. 计算loss

zt = tf.transpose(z3)
yt = tf.transpose(y)

# 使用一行一个数据

loss = tf.nn.softmax_cross_entropy_with_logits_v2(logits=zt,labels=yt)
loss = tf.reduce_mean(loss)

吴恩达教学视频中的数据shape 均为(feature_number,data_num),也就是理解为一列一条数据 。

tf.nn.softmax_cross_entropy_with_logits_v2

则是按照一行视为一条数据进行softmax运算,然后计算每行的损失。

因此需要将z3和y进行transpose()转置

2. 初始化参数

在博主参考的文档中,其使用以下代码和进行说明

    初始化tensorflow中的参数,我们将使用Xavier初始化权重和用零来初始化偏差,比如:

扫描二维码关注公众号,回复: 7150513 查看本文章

    W1 = tf.get_variable("W1", [25,12288], initializer = tf.contrib.layers.xavier_initializer(seed = 1))
    b1 = tf.get_variable("b1", [25,1], initializer = tf.zeros_initializer())

    tf.Variable() 每次都在创建新对象,对于get_variable()来说,对于已经创建的变量对象,就把那个对象返回,如果没有创建变量对象的话,就创建一个新的。

而博主 只是想简单的随机化生成一个规定shape的矩阵,于是入了坑

w1 = tf.Variable(tf.random_normal([20,12288],mean=0.0,stddev=0.01,dtype=tf.float32))
b1 = tf.Variable(tf.zeros([20,1]))
a1 = tf.nn.relu(tf.matmul(w1,x)+b1)

在一开始,博主傻乎乎的直接随机化了一个标准正太分布,结果训练结果非常不如人意,训练loss 刚开始为300多 然后骤降到1.x而后保证基本不变动。

训练结果预测均为某一个固定的类别。 找了n多原因等等,都没有作用。

最后 不知道脑子哪里反应过来了 发现w初始值太大。

可能是想起来前面的实践中 参数初始化的三种方式:

0初始化, 随机初始化,He初始化

其中随机初始化 也是标准正太分布的随机数值,但是吴大大在后面加上了*0.01 来使其逼近于0。

博主的学习笔记这样记录的:

  w初始化为0,会导致隐层单元一致,对称,计算完全相同。

  w初始化很大,z很大,梯度小,收敛慢。

所以应将参数初始化为一个很小的非0值,使用标准正太分布*0.01满足要求。

于是,博主将所有w的随机值均缩小了100倍,修改如上面代码中红色字体部分,之后算法训练完成后性能表现还可以,

在该超参数下learning_rate=0.001,网络层和单元数= [12288,20,11,6],优化算法Adam,epoch=1500,

loss从1.7 慢慢降低到0.07

训练集准确率达到98%,测试集81%。

参数初始化影响很大,一定不要忘了将参数初始化的值逼近于0。

博主的理解就是这样,如果有大佬发现不对的地方请及时指正。

一个最基本的深度神经网络就能达到这种程度,期待接下来的cnn。

猜你喜欢

转载自www.cnblogs.com/weiwuxian/p/11443906.html