Python笔记6---tensorflow中监督学习与非监督学习

监督学习可以看作是原先的预测模型,

有基础的训练数据,

再将需要预测的数据进行输入,得到预测的结果(不管是连续的还是离散的)

---

机器学习术语


       样本:数据集的一行。一个样本包含一个或多个特征,此外还可能包含一个标签。另请参阅有标签样本无标签样本

术语库链接:https://developers.google.cn/machine-learning/crash-course/glossary#label术语库链接

回归模型可预测连续值。例如,回归模型做出的预测可回答如下问题:

  • 加利福尼亚州一栋房产的价值是多少?

  • 用户点击此广告的概率是多少?

分类模型可预测离散值。例如,分类模型做出的预测可回答如下问题:

  • 某个指定电子邮件是垃圾邮件还是非垃圾邮件?

  • 这是一张狗、猫还是仓鼠图片?


预测模型中的损失函数:平方误差:(y-prediction(y))^2

                                       均方误差:(1/n)(y-prediction(y))^2



---

迭代方法:

梯度下降法:梯度下降法的第一个阶段是为 w1 选择一个起始值(起点)。起点并不重要;因此很多算法就直接将 w1

 设为 0 或随机选择一个

梯度下降法算法会计算损失曲线在起点处的梯度。简而言之,梯度是偏导数的矢量;它可以让您了解哪个方向距离目标“更近”或“更远”。

多复习一下梯度下降法,位于降低损失模块中。

如何确定下一个点的坐标:学习速率(步长)*梯度(数学那个梯度)           步长就是原先设置的那些0.01啥的

一维空间中的理想学习速率是 1f(x)″(f(x) 对 x 的二阶导数的倒数)。

二维或多维空间中的理想学习速率是海森矩阵(由二阶偏导数组成的矩阵)的倒数。

广义凸函数的情况则更为复杂。



超参数:在模型训练的连续过程中,您调节的“旋钮”。例如,学习速率就是一种超参数。

参数相对。


---

很多编码练习都包含以下超参数:

  • steps:是指训练迭代的总次数。一步计算一批样本产生的损失,然后使用该值修改模型的权重一次。
  • batch size:是指单步的样本数量(随机选择)。例如,SGD 的批量大小为 1。

以下公式成立:

totalnumberoftrainedexamples=batchsize∗steps

有些练习中会出现以下方便变量:

  • periods:控制报告的粒度。例如,如果 periods 设为 7 且 steps 设为 70,则练习将每 10 步(或 7 次)输出一次损失值。与超参数不同,我们不希望您修改 periods 的值。请注意,修改 periods 不会更改您的模型所学习的内容。

以下公式成立:

numberoftrainingexamplesineachperiod=batchsize∗stepsperiods





猜你喜欢

转载自blog.csdn.net/W_ZhiYuan/article/details/81041840
今日推荐