PRML读书笔记_绪论

一、基本名词

泛化(generalization)

训练集所训练的模型对新数据的适用程度。

监督学习(supervised learning)

训练数据的样本包含输入向量以及对应的目标向量。

  • 分类( classification ):给每个输入向量分配到有限数量离散标签中的一个。
  • 回归( regression ):输出由一个或者多个连续变量组成。

无监督学习(unsupervised learning)

训练数据由一组输入向量 x 组成,没有任何对应的目标值。

  • 聚类(clustering):发现数据中相似样本的分组。
  • 密度估计(density estimation):决定输入空间中数据的分布。

反馈学习(reinforcement learning)

在给定的条件下,找到合适的动作,使得奖励达到最大值。学习问题没有给定最优输出的用例。这些用例必须在一系列的实验和错误中被发现。
反馈学习的一个通用的特征是探索( exploration )和利用( exploitation )的折中,过分地集中于探索或者利用都会产生较差的结果。

  • 探索:是指系统尝试新类型的动作,
  • 利用:是指系统使用已知能产生较高奖励的动作。

二、多项式曲线拟合

正则化( regularization )技术涉及到给误差函数增加一个惩罚项,使得系数不会达到很大的值。这种惩罚项最简单的形式采用所有系数的平方和的形式。这推导出了误差函数的修改后的形式:


在效果上, λ 控制了模型的复杂性,因此决定了过拟合的程度。

三、概率论

概率论的两个基本规则:加和规则( sumrule )、乘积规则( product rule )

贝叶斯定理( Bayes' theorem )


贝叶斯定理中的分母可以用出现在分子中的项表示:

  • 先验概率( prior probability ):\(p(Y)\) 在未知\(X\)分布时,我们已知\(Y\)分布,顾称\(p(Y)\)为先验。
  • 后验概率( posterior probability ):\(p(Y|X)\) 在得知\(X\)分布后,加入\(p(X)\)的约束可以的到条件概率\(p(Y|X)\),称之为后验。

猜你喜欢

转载自www.cnblogs.com/narjaja/p/9256121.html