机器学习中的基础知识(三)

通过前两篇文章我们给大家介绍了机器学习的相关概念,我们不难看出,机器学习的知识是十分零碎的,这是因为机器学习涉及到的知识有很多,在这篇文章中我们继续为大家介绍机器学习的知识,希望这篇文章能够给大家带来帮助。

(1)分类阈值应用于模型的预测分数以分离正类别和负类别的一种标量值标准。当需要将 logistic 回归的结果映射到二元分类模型中时就需要使用分类阈值。

(2)凸函数就是一种形状大致呈字母 U 形或碗形的函数。然而,在退化情形中,凸函数的形状就像一条线。凸函数是很常用的损失函数。因为当一个函数有最小值的时候,梯度下降的各种变化都能保证找到接近函数最小值的点。类似的,随机梯度下降的各种变化有很大的概率找到接近函数最小值的点。两个凸函数相加后仍然是凸函数。深度模型通常是非凸的。

(3)早期停止法就是一种正则化方法,在训练损失完成下降之前停止模型训练过程。当验证数据集的损失开始上升的时候,即泛化表现变差的时候,就该使用早期停止法了。

(4)交叉熵就是多类别分类问题中对 Log 损失函数的推广。交叉熵量化两个概率分布之间的区别。

(5)密集特征就是大多数取值为非零的一种特征,通常用取浮点值的张量表示。和稀疏特征相反。

(6)派生特征是合成特征的同义词。

(7)离散特征就是只有有限个可能取值的一种特征。和连续特征(continuous feature)对照。

(8)dropout 正则化就是训练神经网络时一种有用的正则化方法。dropout 正则化的过程是在单次梯度计算中删去一层网络中随机选取的固定数量的单元。删去的单元越多,正则化越强。

(9)动态模型是以连续更新的方式在线训练的模型。即数据连续不断的输入模型。

(10)数据集就是样本的集合。

(11)决策边界在一个二元分类或多类别分类问题中模型学习的类别之间的分离器。

(12)深度模型是一种包含多个隐藏层的神经网络。深度模型依赖于其可训练的非线性性质。和宽度模型对照。

在这篇文章中我们给大家介绍了很多有关机器学习的概念,通过这些概念我们不难发现人工智能和机器学习都是很多学科交叉而成,尤其是离不开数学,所以我们一定要重视数学的学习。

 

猜你喜欢

转载自www.cnblogs.com/CDA-JG/p/10402503.html