Machine Learning 课程前五周回顾与总结

经过近两个月的努力,一点一点的爬到了第五周。但是一味的上课很容易遗忘,所以通过这个文章来进行一次系统的回顾。

第一周的内容比较简单,主要是提高了监督式学习和非监督式学习的差别,我通过习题发现,最大的差别在于有没有一个事先给出的分类标准。如果有,比如垃圾邮件或者是是否患有癌症,那么就是监督式学习。反之亦然。


第二周第一次有了编程作业,算是正式入门。机器学习其实无外乎是特征提取,误差优化两个内容。提取到了合适的特征,优化得到合适的模型,就算一个完整的机器学习算法。要理解这个,可以从高中接触过的函数入手,最简单的就是二元一次方程了,用二元一次方程刻画两个数之间的关系,大家应该都懂。

y=ax+b,里面的a和b就是我们这里的特征,通过提出a和b,我们也就得到了一个独一无二的直线。这个直线可以刻画x和y直接的关系,也能刻画一组x和y之间的关系。这是二维的情况,但是机器学习无非就是把这个推展到了n维,从精确变成了最优。这里不得不提到矩阵,矩阵给了刻画n维关系的很好工具,如果不懂举矩阵,可能一眼看过去就晕了,所以矩阵就是先修内容了。

提一下误差优化,首先第一步是刻画误差,这里用的是Cost函数,第二步,就是通过函数求导的方式求出Cost函数的导数,利用导数求出Cost函数的极小值,同时求出此时的theta。别慌,想一下二元二次函数求极值!aX^+bY^2=c,是不是就很熟悉了?

之后就是优化提高函数了,NG主要提出了正则化,学习率这两个方法。


先搁笔,过几天继续写。

猜你喜欢

转载自blog.csdn.net/qq_36718790/article/details/79943060