即求
min12∑mi=1(x(i)j−y(i))2=minJ
,
其中
x(i)j
表示第
i
个样本的第
j
维,有以下几种方法:
1. 梯度下降法(gradient descent)——batch
参数更新规则为
θk+1=θk−α∇θJ(θ)k
因为
h(x)=∑i=0nθixi(x0=1)
∇θJ(θ)=[∂J∂θ0...∂J∂θj...∂J∂θn]T
所以,
∂J∂θj=12∑i=1m2⋅(∑kθkx(i)k−y(i))⋅x(i)j=∑i=1m(h(x(i))−y(i)))⋅x(i)j
最终得到对于每一个
j
的更新规则:
θj=θj−α∑i=1m(h(x(i))−y(i)))⋅x(i)j
* 每更新一次要遍历所有样本
2. 随机梯度下降法(SGD, stochastic gradient descent)
Loop}{fori=1tom{θj=θj−α(h(x(i))−y(i)))⋅x(i)j(forallj)}
* 不用每更新一次遍历所有样本
* 不会精确收敛到全局最小值
3. 正规方程组(Normal Equation)
记
X=⎡⎣⎢(x(1))T...(x(m))T⎤⎦⎥
,
y→=⎡⎣⎢(y(1))...(y(m))⎤⎦⎥
,
Xθ→=⎡⎣⎢(x(1))Tθ...(x(m))Tθ⎤⎦⎥=⎡⎣⎢hθ(x(1))...hθ(x(m))⎤⎦⎥
所以:
J(θ)=12(Xθ→−y→)T(Xθ→−y→)
∇θJ(θ)=∇θ12(Xθ→−y→)T(Xθ→−y→)=∇θ12(θTXTXθ−θTXTy−yTXθ+yTy)
因为
(Xθ)Ty=yTXθ,∂∂θθTAθ=2Aθ,∂∂θαTθ=α
所以
∇θJ(θ)=XTXθ−XTy
令
∇θJ(θ)=0
得到:
XTXθ=XTy
若方程可解,得
θ=(XTX)−1⋅XTy
即最小二乘解
* 不用多次迭代
* 但当特征参数很大时,计算量很大,很慢
最小二乘法的目的实际上是假设误差项满足高斯分布且独立同分布的条件下,使似然最大化
4. 牛顿法
当要找
f(x)=0
的解时,在函数图像上随机一点处做切线,与x轴交点作为下一个点,逼近求解:
f′(xk)=f(xk)−0xk−xk+1
所以,要
minf(x)
, 即找
f′(x)=0
, 所以更新规则为:
xk+1−→−=xk−→−[f′′(xk−→)]−1⋅f′(xk−→)
* 比梯度下降更快收敛
* 但当特征参数很大时,计算量很大,很慢
Hession matrix
f′′(x→)
是一个半正定矩阵,计算量很大,可以通过一个正定矩阵B来代替它——> 拟牛顿法
5. 坐标下降法
求
minx1,...,xnf(x1,x2,...,xn)
,一次优化一个
x
:
forendt=1tonminxtf(x1,...,xt,...,xn)
* 迭代次数较多,代价较小