花书读书笔记(四)-机器学习基础

全部笔记的汇总贴:《深度学习》花书-读书笔记汇总贴

《深度学习》PDF免费下载:《深度学习》

一、学习算法

机器学习算法是一种能够从数据中学习的算法。

  1. 任务 T T T
  2. 性能度量 P P P
  3. 经验 E E E

二、容量、过拟合和欠拟合

在先前未观测到的输入上表现良好的能力被称为泛化(generalization)。

决定机器学习算法效果是否好的因素:

  1. 降低训练误差。
  2. 缩小训练误差和测试误差的差距。

这两个因素对应机器学习的两个主要挑战:欠拟合(underfitting)和过拟合(overfitting)。欠拟合是指模型不能在训练集上获得足够低的误差。而过拟合是指训练误差和和测试误差之间的差距太大。

没有免费午餐定理(no free lunch theorem)表明,在所有可能的数据生成分布上平均之后,每一个分类算法在未事先观测的点上都有相同的错误率。换言之,在某种意义上,没有一个机器学习算法总是比其他的要好。我们能够设想的最先进的算法和简单地将所有点归为同一类的简单算法有着相同的平均性能(在所有可能的任务上)。

三、超参数和验证集

大多数机器学习算法都有超参数,可以设置来控制算法行为。

用于挑选超参数的数据子集被称为验证集(validation set)。

四、估计、偏差和方差

θ \theta θ的点估计一般用 θ ^ \hat\theta θ^来表示。

估计的偏差定义为: b i a s ( θ ^ m ) = E ( θ ^ m ) − θ bias(\hat\theta_m)=E(\hat\theta_m)-\theta bias(θ^m)=E(θ^m)θ偏差为0称为无偏估计。

五、最大似然估计

θ \theta θ的最大似然估计为: θ M L = arg max ⁡ θ p m o d e l ( X ; θ ) = arg max ⁡ θ ∏ i = 1 m p m o d e l ( x ( i ) ; θ ) \theta_{ML}=\argmax_\theta p_{model(X;\theta)}\\=\argmax_\theta \prod_{i=1}^mp_{model(x^{(i)};\theta)} θML=θargmaxpmodel(X;θ)=θargmaxi=1mpmodel(x(i);θ)

因为乘积不容易计算,所以我们一般用 log ⁡ \log log似然, θ M L = arg max ⁡ θ ∑ i = 1 m log ⁡ p m o d e l ( x ( i ) ; θ ) = arg max ⁡ θ E x ∼ p ^ d a t a log ⁡ p m o d e l ( x ; θ ) \theta_{ML}=\argmax_\theta \sum_{i=1}^m\log p_{model}(x^{(i)};\theta)\\=\argmax_\theta E_{x\sim \hat p_{data}}\log p_{model}(x;\theta) θML=θargmaxi=1mlogpmodel(x(i);θ)=θargmaxExp^datalogpmodel(x;θ)

六、贝叶斯统计

最大后验估计选择后验概率中最大的点: θ M A P = arg max ⁡ θ p ( θ ∣ x ) = arg max ⁡ θ log ⁡ p ( x ∣ θ ) + log ⁡ p ( θ ) \theta_{MAP}=\argmax_\theta p(\theta|x)=\argmax_\theta \log p(x|\theta)+\log p(\theta) θMAP=θargmaxp(θx)=θargmaxlogp(xθ)+logp(θ)

七、监督学习算法

可以之间参考《统计学方法》这本书对应的章节。

八、无监督学习算法

可以之间参考《统计学方法》这本书对应的章节。

九、随机梯度下降

随机梯度下降的核心是,梯度是期望,期望可使用小规模的样本近似估计,在后面也会有具体的讲解。

十、构建机器学习算法

组合模型、代价和优化算法来构建学习算法的配方同时适用于监督学习和无监督学习。

十一、促使深度学习发展的挑战

  1. 维数灾难
  2. 局部不变性和平滑正则化
  3. 流形学习

下一章传送门:花书读书笔记(五)-深度前馈网络

猜你喜欢

转载自blog.csdn.net/qq_41485273/article/details/112793361
今日推荐