MXNet学习总结

1. 机器学习关键要素

成功的机器学习有四个要素:数据、转换数据的模型、衡量模型好坏的损失函数和一个调整模型权重来最小化损失函数的算法

1.1 数据(Data)

越多越好。事实上,数据是深度学习的核心,因为复杂的非线性模型比其他机器学习需要更多的数据。数据的例子包括:
图片:你的手机图片,里面可能包含猫、狗、恐龙、高中同学聚会或者昨天的晚饭;卫星照片;医疗 图片例如超声、CT扫描以及MRI等等。
文本:邮件、高中作文、微博、新闻、医嘱、书籍、翻译语料库和微信聊天记录。
声音:发送给智能设备(比如Amazon Echo,iPhone或安卓智能机)的声控指令、有声书籍、电话记录、音乐录音,等等。
影像:电视节目和电影,Youtube 视频,手机短视频,家用监控,多摄像头监控等等。
结构化数据:Jupyter notebook(里面有文本,图片和代码)、网页、电子病历、租车记录和电费账单。

1.2 模型(Models)

通常,我们拿到的数据和最终想要的结果相差甚远。例如,想知道照片中的人是不是开心,我们希望有一个模型,能将成千上万的低级特征(像素值),转化为高度抽象的输出(开心程度)。选择正确模型并不简单,不同的模型适合不同的数据集。

1.3 损失函数(Loss Functions)

我们需要对比模型的输出和真实值之间的误差。损失函数可以衡量输出结果对比真实数据的好坏。我们需要跟踪两项数据:

训练误差(training error):这是模型在用于训练的数据集上的误差。类似于考试前我们在模拟试卷上拿到的分数。有一定的指向性,但不一定保证真实考试分数。

测试误差(test error):这是模型在没见过的新数据上的误差,可能会跟训练误差很不一样(统计上称之为过拟合)。类似于考前模考次次拿高分,但实际考起来却失误了。(笔者之一曾经做GRE真题时次次拿高分,高兴之下背了一遍红宝书就真上阵考试了,结果最终拿了一个刚刚够用的低分。后来意识到这是因为红宝书里包含了大量的真题。)

1.4 优化算法(Optimization Algorithms)

最后,我们需要算法来通盘考虑模型本身和损失函数,对参数进行搜索,从而逐渐最小化损失。最常见的神经网络优化使用梯度下降法作为优化算法。简单地说,轻微地改动参数,观察训练集的损失将如何移动。然后将参数向减小损失的方向调整。

猜你喜欢

转载自blog.csdn.net/myarrow/article/details/79109827
今日推荐