1、回归 一元线性回归 代价函数 梯度下降法

1、回归是达尔文表弟发现的,就是说人类总体有一个平均身高。那个高个子生的孩子都个高,矮的孩子生的矮。但是他们的下一代大部分都往平均身高长,也就是说特别高的人,他们的孩子会很高,但是往往比他们自己矮。特别矮的人他们生的孩子会矮一些,但是会比自己的父母高,他们都有这种趋势。表弟管这个叫做回归。

2、一元线性回归 指的是一个自变量对应一个因变量的 一元函数。当平面坐标系中 有些散列的点的时候,我们往往想找到一条直线去拟合他们的回归线。我们管这条直线叫做一元线性回归

假定这个函数为我们要求的就是这个函数的的值 确定了这个值 我们就确定了一元线性回归函数 

3、代价函数等于

很显然 如果的值能使得最小 那就是我们要的一元线性回归函数。

4、梯度下降法

就是针对代价函数 的两个变量求偏微分,然后这个偏微分的值乘以一个变量 让当前导数的值-变量*学习量。值最小时就是梯度下降法所要的。此时的参数

 就是我们一元线性回归方程需要的两个值。关于学习变量 不要把它想得很神秘 拿到坐标系去研究  它只是为了配合求导的斜率 改变当前变量在坐标系上移动的方向和大小的 仅此而已

发散一下  如果不是 - 而是+ 的话就是求峰值 此时代价函数最大 拟合的最不好

另外有一点 为什么不用微积分中两次求导数 的方法求极值

猜你喜欢

转载自www.cnblogs.com/wholeworld/p/11874674.html