deep_learning(吴恩达) 第三周 –浅层神经网络_01

这两天轻松的很啊~
详细: 吴恩达《神经网络与深度学习》课程笔记(4)– 浅层神经网络
下面内容是上面链接的简单摘要


浅层神经网络和神经网络基础很相似。
还是那几步。

  1. 确定层数,弄清维度。(弄不清也没事,下一章会发现规律)
  2. 初始化参数。(这次*不能全部是零*。因为全是零,貌似会导致隐藏层计算过程都一样)
  3. 向前传播
  4. 计算损失函数
  5. 反向传播
  6. 更新参数
  7. 重复3~6,至损失函数减小幅度很小。(多次迭代)
  8. 此时的参数,是损失函数最小的时候,所对应的参数。
  9. 用这个参数,可以用来进行测试和判断。

整体的应用过程如下图 :隐藏层得出的结果,作为第二层的输入
在这里插入图片描述

3-向前传播

(1) Z [ 1 ] = W 1 X + b [ 1 ] Z^{[1]}=W^{1}X+b^{[1]}\tag{1}
(2) A [ 1 ] = σ ( Z [ 1 ] ) A^{[1]}=\sigma{(Z^{[1]})}\tag{2}
(3) Z [ 2 ] = W 2 A [ 1 ] + b [ 2 ] Z^{[2]}=W^{2}A^{[1]}+b^{[2]}\tag{3}
(4) A [ 2 ] = σ ( Z [ 2 ] ) A^{[2]}=\sigma{(Z^{[2]})}\tag{4}

4-计算损失函数

(5) L = Y log A + ( 1 Y ) log ( 1 A ) L=Y\log{A} + (1-Y)\log{(1-A)}\tag{5}
(6) J = L m J=-\frac{\sum{L}}{m}\tag{6}

5-反向传播

(截个图,写公式麻烦,嘿嘿)
在这里插入图片描述
最后,详细的实现过程在作业中。

猜你喜欢

转载自blog.csdn.net/sinat_38816924/article/details/88321424
今日推荐