Gradient descent algorithm 梯度下降法

梯度下降法用于局部最优搜索:
假设函数函数J是关于 θ 0 \theta_0 , θ 1 \theta_1 记为 J ( θ 0 , θ 1 ) J(\theta_0,\theta_1)
梯度下降法的目标是寻找一组合适的 θ 0 \theta_0 θ 1 \theta_1 ,使得 J ( θ 0 , θ 1 ) J(\theta_0,\theta_1) 在某个局部范围内最小,
公式如下:
repeat until convergence{
θ j : = θ j α δ δ θ j J ( θ 0 , θ 1 ) \theta_j:=\theta_j-\alpha\dfrac{\delta}{\delta\theta_j}J(\theta_0,\theta_1)
for j = 0 j=0 and j = 1 j=1
}

猜你喜欢

转载自blog.csdn.net/adream307/article/details/84378413