吴恩达之神经网络和深度学习-2.14logistic梯度回归

回顾一下前面学过的内容,我们知道 d Z = [ d z ( 1 ) , d z ( 2 ) , , , d z ( m ) ] , A = [ a ( 1 ) , a ( 2 ) , , , a ( m ) ] , Y = [ y ( 1 ) , a ( 2 ) , , , y ( m ) ]
d b = 1 m i = 1 m d z ( i ) = 1 m n p . s u m ( d Z )
d w = 1 m X ( d Z ) T
对logistic进行一次迭代:
Z = w T X + b = n p . d o t ( w . T , X ) + b
A = σ ( Z )
d Z = A Y
d w = 1 m X ( d Z ) T
d b = 1 m n p . s u m ( d Z )
w := w α ( d w )
b := b α ( d b )
以上就对logistic进行了一次迭代,倘若我们想要迭代多次,就要用到for循环了,最外层的循环是没有办法去掉的。

猜你喜欢

转载自blog.csdn.net/qq_32113189/article/details/79992323
今日推荐