#菜鸟机器学习的逆袭之路#day2

今天家里人实在忍受不了我在家里不学习的日子,于是下了血本。爸爸说陪着我学习,我学多久他就陪我学多久。哎,看到爸爸看书的样子还是蛮心疼的。。

今天看了吴恩达第一部分的机器学习,写一下自己还记得的东西,一是回顾,二是怕自己忘了这些知识。

之前看过老吴的视频课,一直觉得都是英文的,可能太深奥,看不懂,看了西瓜书前8章 回过头看老吴视频突然发现这么简单有趣的人我当时怎么会觉得他是一个深奥的糟老头子…
老实说,老吴讲的很细很基础了(仅仅指前两章,因为我只看了这些…),连最基础的微分都会耐心讲解,是大牛没错了。

总结部分如下:
监督学习:给机器样本和结论,让机器学习一种算法可以适应这些样本和结论的过程是监督学习。
无监督学习:只给机器海量样本,机器学出什么都可以,看看它到底能学出个啥。

回归:监督学习的一种,相当于是我想得到一些连续的结果,或者说结论与输入之间有一种函数关系表示,我们就叫做回归。
分类:监督学习的一种,感觉就是求离散解,如果我想得到的结果是几个离散的结果,比如判断是、否或者判断是菜花、西瓜、番茄炒蛋(最近我做的可好吃了)等。

线性回归:个人感觉本质就是一个线性方程:y=ax+b;
这里有两部分未知需要求解:一部分是a,b已知,x为变量,求解y,这种方程求解,由于是相当于我们假设了一种函数可以应用于我们原来想求解的实际问题中,所以这个函数叫做假设函数。
另一种就是j(a,b)=1/2m * sum(y(a,b)-y)^2,由于这里我们求解的是存在一某一个a,b使得这里的j值最小,就是所谓的代价函数。线性回归中,代价函数的改变或者说迭代遵循的原则是梯度下降原则:
所谓梯度下降原则就是由于存在两个未知数,我们需要改变a,b时总要有一个方法去改变,方法的核心当然是改变a,b可以使得j减小。那么我们可以从梯度方向上向下移动j,便是一个方法,反映到数学表达式:
变量(a,b)=变量(a,b)-α 乘以 (j对变量的微分)。note:此处α指的是移动脚步的大小,这也称作梯度下降函数。
这个思路也很简单,就是变量a=a-梯度上移动值乘以权重;b=b-梯度上移动值乘以权重。
如此,我们就可以使得ab不断去改变去寻找全局上的最优解(j在整个实数域的最小值),当j=0 or j1=j2时,迭代结束。(当然,迭代前我们需要赋予ab初值,一般为0)

以上就是线性回归部分的学习心得了。明天我要看20节课。

发布了31 篇原创文章 · 获赞 0 · 访问量 669

猜你喜欢

转载自blog.csdn.net/ballzy/article/details/104320225
今日推荐