为什么是神经网络&深度学习

背景:很多人都知道神经网络、深度学习是上世纪就有的技术,为什么最近这些年才成为“爆款”?本文就这个话题来掰扯掰扯,记录记录一些大佬的对此的见解。

Scale drives deep learning progress

“Scale drives deep learning progress”,这是吴恩达的深度学习课程中的一个标题。这里“规模”(scale)一方面指的是神经网络的规模,能构建更多隐藏单元更多连接的神经网络,这一方面很明显依赖于计算机算力尤其GPU技术的大幅度提升。另一方面还有数据“规模”(scale of the data),传统的机器学习算法如SVM 无法处理海量数据,给这些模型再多的数据也无法提升模型准确度。而神经网络想要达到更好效果,需要在构建更大规模的网络模型的同时给予足够的海量数据。近20年数字化社会的发展使得获取海量数据变成越来越容易的一件事。

For developer,Why deep-learning

这里举个例子,来稍微解释一下开发人员为什么会要采用深度学习技术来解决问题。这里我们假设——股票的涨跌可以由各种指标(特征)来进行预测:

当指标只有一个时

当我们用于预测的指标只有一个,比如说市盈率(PE)时,我们可以通过简单的观察得到预测模型,可能像下面这样:

if PE < X :
    print("涨")
else :
    print("跌")

当指标只有两个时:

当我们用于预测的指标有两个,比如说市盈率(PE)和前七交易日换手率(turnover-rate),我们可以通过常规的数学分析工具得到预测模型,可能像下面这样:

if (10/PE+TR)> 3:
    print("涨")
else:
    print("跌")

当指标只有100个时:

这时候常规的数学分析建模方法没用了,人们开始想到仿佛人类大脑的学习方法,于是就有了神经网络……(未完待续)

Guess you like

Origin blog.csdn.net/chenxy02/article/details/107832333