这两天轻松的很啊~
详细: 吴恩达《神经网络与深度学习》课程笔记(4)– 浅层神经网络
下面内容是上面链接的简单摘要
浅层神经网络和神经网络基础很相似。
还是那几步。
- 确定层数,弄清维度。(弄不清也没事,下一章会发现规律)
- 初始化参数。(这次*不能全部是零*。因为全是零,貌似会导致隐藏层计算过程都一样)
- 向前传播
- 计算损失函数
- 反向传播
- 更新参数
- 重复3~6,至损失函数减小幅度很小。(多次迭代)
- 此时的参数,是损失函数最小的时候,所对应的参数。
- 用这个参数,可以用来进行测试和判断。
整体的应用过程如下图 :隐藏层得出的结果,作为第二层的输入
3-向前传播
Z[1]=W1X+b[1](1)
A[1]=σ(Z[1])(2)
Z[2]=W2A[1]+b[2](3)
A[2]=σ(Z[2])(4)
4-计算损失函数
L=YlogA+(1−Y)log(1−A)(5)
J=−m∑L(6)
5-反向传播
(截个图,写公式麻烦,嘿嘿)
最后,详细的实现过程在作业中。