【GreedyAI作业1】第一周课程心得

第一周直播课期间,主要自学了基础课,又上了两节直播课,对机器学习有了初步的理解。

机器学习其实可以理解成统计学在计算机支持下的的延伸,对于统计学、线性代数、高等数学、计算机编程、算法等基础知识都有一定的要求,可以在学习机器学习的过程中,结合相关问题对基础知识在进行更深入的学习。


第一课主要对机器学习的基本概念、流程、预处理、分类等简单内容进行了介绍,通过一个广告投放的案例对线性回归模型的实现进行了演示。

机器学习、人工智能、大数据、数据挖掘都是当今很火的词汇,互相之间各有关联,又各有区别,其实学习的时候不用太纠结。

机器学习、人工智能、数据挖掘,都是在数据基础上对数据规律的探寻,只是最终的应用过程和出口不同。

机器学习的目标:

  1. 根据数据(历史)优化评价指标(模型);
  2. 发现规律做出预测;

图源:贪心学院

机器学习的两种方式:

监督学习和非监督学习。入门课对这二者中的简单内容进行了讲解,监督学习的分类和回归,非监督学习的聚类,还有更深入的内容和差别需要进行自学。

监督学习的回归和分类有很大的差别

引自:https://blog.csdn.net/monk1992/article/details/82346375

1.回归问题的应用场景(预测的结果是连续的,例如预测明天的温度,23,24,25度)

回归问题通常是用来预测一个值,如预测房价、未来的天气情况等等,例如一个产品的实际价格为500元,通过回归分析预测值为499元,我们认为这是一个比较好的回归分析。一个比较常见的回归算法是线性回归算法(LR)。

2.分类问题的应用场景(预测的结果是离散的,例如预测明天天气-阴,晴,雨)

分类问题是用于将事物打上一个标签,通常结果为离散值。例如判断一幅图片上的动物是一只猫还是一只狗,分类通常是建立在回归之上,分类的最后一层通常要使用softmax函数进行判断其所属类别。分类并没有逼近的概念,最终正确结果只有一个,错误的就是错误的,不会有相近的概念。最常见的分类方法是逻辑回归,或者叫逻辑分类。

图源:贪心学院-机器学习的实施流程

具体每一步都有自己的科学方法,才入门,学习不能着急,好好敲两遍代码才是王道。


第二课主要是K最近邻(KNN)算法

KNN算法的核心思想是如果一个样本在特征空间中的k个最相邻的样本中的大多数属于某一个类别,则该样本也属于这个类别,并具有这个类别上样本的特性。该方法在确定分类决策上只依据最邻近的一个或者几个样本的类别来决定待分样本所属的类别。 KNN方法在类别决策时,只与极少量的相邻样本有关。

图源:贪心学院-示例

KNN需要考虑的问题:

  1. 实体表示为向量;
  2. 标记每个物体的标签;
  3. 计算两个物体的距离(相似度);
  4. 选择合适的K;

每个内容都有更深入的科学方法,很难一一穷尽,需要开展系统学习,更要与实践相结合。

猜你喜欢

转载自blog.csdn.net/u010472858/article/details/94000982