深度学习入门笔记(一)

单个神经元网络

简化表示
正向传播:W*X+B=y
W,B为参数,X为样本值,y为预测值,Y为标签值

反向传播:根据差值标签值Y-预测值y,对W和B进行相应的调整。
循环往复进行

softmax分类算法

在这里插入图片描述得出分别为y1,y2,y3的概率
tensorflow代码:tf.nn.softmax(logits,name=None)

损失函数(即标注中差值的计算)

均值平方差

适用范围:输入为实数,无界的值
tensorflow代码:
MSE=tf.reduce_mean(tf.square(input_lables - output))
MSE=tf.reduce_mean(tf.pow(tf.sub(input_lables,output),2.0))
MSE=tf.reduce_mean(tf.sub(input_lables,output)))

交叉熵

适用范围:一般用于分类
tensorflow代码:
tf.nn.softmax_cross_rntropy_with_logits
tf.nn.sigmoid_cross_rntropy_with_logits
tf.nn.sparse_softmax_cross_entropy_with_logits
-tf.reduce_sum(y*tf.log(pred),1)

梯度下降

tensorflow代码:
tf.train.GradientDescentOptimizer
tf.train.AdamOptimizer

学习率

在这里插入图片描述退化学习率:
tf.train.expcnetial_decay(starter_learning_rate,global_step,100000,0.96)

多层神经网络

提高精度,解决非线性问题
在这里插入图片描述

激活函数

不能加多层(最多为3)
在这里插入图片描述特征值差异大,不能多层
在这里插入图片描述
小于0丢弃,大于0保留
在这里插入图片描述

发布了24 篇原创文章 · 获赞 2 · 访问量 402

猜你喜欢

转载自blog.csdn.net/yyp1998/article/details/104402531
今日推荐