Andrew Ng机器学习课程笔记(三)之监督学习之Newton's Method

Preface

主要内容:
Newton’s Method(牛顿法)

Newton’s Method

step 1 :问题导入

现需要对函数 f ( θ ) ,找到一个合适的 θ 使得 f ( θ ) = 0

step 2:迭代

牛顿法搜索动态示例图:
https://www.cnblogs.com/shixiangwan/p/7532830.html
根据导数定义:
这里写图片描述

(1) f ( θ ( 0 ) ) = f ( θ ( 0 ) ) Δ (2) Δ = f ( θ ( 0 ) ) f ( θ ( 0 ) ) (3) θ ( 0 ) θ ( 1 ) = f ( θ ( 0 ) ) f ( θ ( 0 ) ) (4) θ ( 1 ) = θ ( 0 ) f ( θ ( 0 ) ) f ( θ ( 0 ) ) (5) θ ( t + 1 ) = θ ( t ) f ( θ ( 0 ) ) f ( θ ( 0 ) )

注: f ( θ ) 的初始值对函数无影响, θ ( 0 ) 表示 θ = 0

step 3:求最大似然函数

回顾上一篇文章Andrew Ng机器学习课程笔记(二)之监督学习之Linear Regression and Logistic regression 中使用梯度法求最大似然函数,在这里我们将使用牛顿法来求最大似然函数。

牛顿的方法提供了一种方式去 f ( θ ) = 0 。如果我们想使用它的一些功能使得似然函数 ( θ ) 最大化?
( θ ) 极大值对应的点,其一阶导数 ( θ ) 为零。所以,让 f ( θ ) = ( θ ) ,我们可以使用相同的算法来最大化 ( θ )

显然,这里 θ 的更新规则已经变成了,

(6) θ ( t + 1 ) = θ ( t ) ( θ ) ( θ )

step 4:多维特征推广

θ 为一个大于一维的向量时,我们得到的迭代规则为:

(7) θ ( t + 1 ) = θ ( t ) H 1 θ ( θ )

其中 H 为Hessian矩阵:
(8) H i j = 2 ( θ ) θ i θ j

参考文献

https://www.cnblogs.com/shixiangwan/p/7532830.html

猜你喜欢

转载自blog.csdn.net/danerer/article/details/79844302