机器学习数学篇—基础数学知识清单

介绍

到目前为止我们学习了,最小二乘法,逻辑回归,朴素贝叶斯,决策树,神经网络,卷积神经网络。里面提到了很多的数学概念,有懂得,也有不懂的,今天我们来列一个清单以便于后面的学习。
其实有同学也再问:“孙老师,你为什么不先讲数学知识,然后再讲机器学习呢,就像小时候上学一样,先学加减法,再学乘除,一年级一年级的往上学。”
首先这个同学问的问题非常好。但是咱们不是义务教育,也不是小时侯了,大人要有大人的学习方法,如果一开始的时候就说:“学习机器学习需要花个2年时间去学习微积分,线性代数,概率论,数理统计,信息论这些数学知识,然后才能开始进入机器学习的阶段。” 我想这时候本来计划要学习的同学,一大半都要放弃了,尤其是已经工作几年的程序员,各种身不由己。然而真正好的学习方式是带着任务去学习,比如正在看一篇自然语言处理的文章,里面讲了两篇文章的相似度是根据余弦定理来判定的,假设你又不懂余弦定理是干什么的,那么这时候你就把学习余弦定理作为一个学习的任务,这个就是一个很好的学习方式。由任务来驱动,用搜索的方式去学习。

推荐书籍

周志华老师的西瓜书很早就买了,但是并没有从第一页翻到最后一页的去看,而是先看序言,再看目录,找到自己感兴趣的内容和章节去学习。还有就是看博客学习,看论文的时候遇到生疏的概念,会去周老师的书里查找,当作“新华字典”去用。但是千万不要去背一些概念,只是仅仅记住文字没有用的 ,要去理解,去一层一层的寻找数学原理,很多难懂的概念都是建立在最基础的数学定理上面,要耐心的去深挖,直到初等数学基本定理。

先来看几张非常恐怖的图片:




还行吧,也没那么恐怖,现在看来还有些可爱呢。

下面列出目前为止涉及到的数学知识,专有名词(持续更新中):

一. 线性代数

  1. 向量
  2. 矩阵
  3. 集合
  4. 标量
  5. 张量
  6. 范数
  7. 内积
  8. 向量正交

二. 概率论

  1. 条件概率
  2. 联合概率
  3. 全概率公式
  4. 逆概率
  5. 贝叶斯公式
  6. 贝叶斯定理
  7. 先验概率
  8. 后验概率
  9. 似然概率
  10. 最大似然估计法
  11. 最大后验概率法
  12. 离散型随机变量
  13. 连续型随机变量
  14. 概率质量函数
  15. 概率密度函数
  16. 两点分布
  17. 二项分布
  18. 泊松分布
  19. 均匀分布
  20. 指数分布
  21. 正态分布
  22. 数字特征
  23. 数学期望
  24. 方差
  25. 协方差

三. 数理统计

  1. 样本
  2. 总体
  3. 统计量
  4. 参数估计
  5. 假设检验
  6. 置信区间
  7. 区间估计
  8. 泛化能力
  9. 泛化误差
  10. 欠拟合
  11. 过拟合
  12. 噪声
  13. 偏差

四. 优化相关

  1. 目标函数
  2. 全局最小值
  3. 局部极小值
  4. 无约束优化
  5. 约束优化
  6. 拉格朗日函数
  7. 梯度下降法
  8. 梯度方向
  9. 一阶导数
  10. 二阶导数
  11. 牛顿法
  12. 泰勒展开
  13. 线性搜索方法
  14. 置信域方法
  15. 启发式算法

五.信息论

  1. 信息熵
  2. 互信息
  3. 信息增益
  4. KL 散度
  5. 最大熵原理

列这样一个表的目的是出一个‘测试集’,按照机器学习的套路,平常同学们自己学习就相当于机器学习中用训练集数据去训练,调优,等准确率提高到一定程度,再把模型放到测试集去训练看最后结果,同学们学习一段时间,自我感觉良好了,可以把这个列表拿出来看检验一下,然后再去看算法推导过程,抽出时间去天池,kaggle上找个比赛参加一下,这样反复的来几个回合,效果一定非常好。
当然不会只是这样一个列表,接下来当然会详细介绍一下每个章节的每一个名词的概念。

猜你喜欢

转载自blog.csdn.net/sqc3375177/article/details/79100154