CNN入门讲解-为什么要有最后一层全连接?

转载自:https://baijiahao.baidu.com/s?id=1590121601889191549&wfr=spider&for=pc

先来一段官方的语言介绍全连接层(Fully Connected Layer)

全连接层常简称为 FC,它是可能会出现在 CNN 中的、一个比较特殊的结构;从名字就可以大概猜想到、FC 应该和普通层息息相关,事实上也正是如此。直观地说、FC 是连接卷积层和普通层的普通层,它将从父层(卷积层)那里得到的高维数据铺平以作为输入、进行一些非线性变换(用激活函数作用)、然后将结果输进跟在它后面的各个普通层构成的系统中:

上图中的 FC 一共有3*2*2 =12个神经元,自 FC 之后的系统其实就是NN。换句话说、我们可以把 CNN 拆分成如下两块结构:

自输入开始、至 FC 终止的“卷积块”,组成卷积块的都是卷积层自 FC 开始、至输出终止的“NN 块”,组成 NN 块的都是普通层

注意:值得一提的是,在许多常见的网络结构中、NN 块里都只含有 FC 这个普通层

明白了没有?各位看官

没有?

说白了全连接就是一个分类器,LR知道不?

逻辑回归懂不懂?

将上层抽取出来的特征向量在里面做一个权重计算,输出各个类别的概率,就是这个,没了。

那么为什么 CNN 会有 FC 这个结构呢?

或者问得更具体一点、为什么要将总体分成卷积块和 NN 块两部分呢?

这其实从直观上来说非常好解释:卷积块中的卷积的基本单元是局部视野,用它类比我们的眼睛的话、就是将外界信息翻译成神经信号的工具,它能将接收的输入中的各个特征提取出来;至于 NN(神经网络)块、则可以类比我们的神经网络(甚至说、类比我们的大脑),它能够利用卷积块得到的信号(特征)来做出相应的决策。概括地说、CNN 视卷积块为“眼”而视 NN 块为“脑”,眼脑结合则决策自成。

用机器学习的术语来说、则卷积块为“特征提取器”而 NN 块为“决策分类器”,

而他的作用就是:全连接层则起到将学到的“分布式特征表示”映射到样本标记空间的作用

而事实上,CNN 的强大之处其实正在于其卷积块强大的特征提取能力上、NN 块甚至可以说只是用于分类的一个附属品而已。我们完全可以利用 CNN 将特征提取出来后、用之前介绍过的决策树、支持向量机等等来进行分类这一步而无须使用 NN 块。

猜你喜欢

转载自blog.csdn.net/weixin_39123145/article/details/82968189