《吴恩达机器学习》内容总结Week1

      课程网址:Machine Learning | Coursera

       第一周的主要内容分为三个部分:机器学习基础概念的介绍、一元线性回归和线性代数基础知识的回顾。

一、机器学习基础概念的介绍

1.机器学习的定义

          第二个定义更为细化,要分清其中涉及的几个概念。

          经验E:学习过程

          任务T:设计目的

          性能P:训练精度

2.机器学习的分类

          监督学习:给算法的数据集,其中包含了正确答案,算法的目的是给出更多的正确答案。主要涉及的问题有回归和分类等。

          无监督学习:给算法的数据集中没有任何标签,算法要从中找到某种结构。主要涉及的算法有聚类算法和鸡尾酒会问题算法等。

二、一元线性回归

1.基本模型

回归函数假设:一元函数         主要参数:theta0、theta1

代价函数:1/2的方差               目标:获得使代价函数最小时的参数theta0、theta1,构建预测方程

2.梯度下降算法

        梯度下降算法的主要目标是通过迭代找到收敛点(代价函数的极小值点)。

                                                    \theta_{j} := \theta_{j} - \alpha \frac{\partial }{\partial \theta_{j}}J(\theta _{0},\theta_{1})                j=0和1

代入代价函数:

梯度下降算法示意图:

其中,有一个需要考虑的问题:选择一个适当的学习率alpha-----------\alpha

如果\alpha太小,梯度下降将很慢。

如果\alpha太大,梯度下降将会在最小值点处徘徊,难以收敛甚至偏离。

 三、线性代数基础知识的回顾

        本部分主要介绍矩阵和向量的基本概念和运算,略。

猜你喜欢

转载自blog.csdn.net/cxzgood/article/details/120682431