为什么我们更多的使用卷积神经网络而不用全链接神经网络

首先全连接有一个问题就是参数量特别大,参数量一多就会占用内存,而且随着网络层数的增加会指数级的增长。

第二一点就是由于全连接将所有信息量都考虑到了,并且不分重要和不重要,会将一些噪声也学习到,容易造成过拟合,需要使用dropout来防止过拟合。

卷积的好处就是不会考虑全部信息,不会想全连接那样所有特征,不管是重要还是不重要的都一视同仁,它就像人在看东西一样会有所侧重,学到关键的特征。

在卷积核的数量设计中也是有讲究的,不能太多也不能太少,太多的话会学到重复的特征,太少则会导致信息的丢失。

猜你喜欢

转载自blog.csdn.net/weixin_38241876/article/details/91131771