深度学习(二)——神经元——分类

文章参考https://zhuanlan.zhihu.com/p/27437566
1.卷积神经元
(1)只跟前一神经细胞层的部分神经元有连接。
(2)它们不是和某些神经元随机连接的,而是与特定范围内的神经元相连接。
(3)通常用来保存空间信息。这让它们对于那些拥有大量局部信息,比如图像数据、语音数据会非常实用。
(4)独立训练,有很多副本,每个副本都有自己的权重
2.解卷积神经元
(1)与卷积神经元相反,使用方式不同,但连接方式相同
(2)通过跟下一神经细胞层的连接来解码空间信息
(3)独立训练,有很多副本,每个副本都有自己的权重


3.池化神经元
(1)接受到来自其它神经元的输出过后,决定哪些值可以通过,哪些值不能通过
(2)不是真正意义上的神经元
(3)在图像领域,可以理解成是把一个图像缩小了,减少一些不必要的像素
4.插值神经元
(1)获取一些信息,然后映射出更多的信息,额外的信息都是按照某种方式制造出来的
(2)与池化神经元相反,是池化神经元的反向操作
(3)不是真正意义上的神经元
(4)运行非常快,实现简单
(5)在图像领域,可以理解为在一张小分辨率的图片上面进行放大。


5.均值神经元
(1)一般,与标准方差神经元成对出现
(2)一类用来描述数据概率分布的神经元
(3)均值是所有值的平均值
(4)一般和前一神经元层或者下一神经元层是全连接而且没有偏差(bias)
6.标准方差神经元
(1)一般,与均值神经元成对出现
(2)一类用来描述数据概率分布的神经元
(3)标准方差描述的是这些数据偏离(两个方向)均值有多远
(4)一般和前一神经元层或者下一神经元层是全连接而且没有偏差(bias)


7.循环神经元
(1)不仅仅在神经细胞层之间有连接,而且在时间轴上也有相应的连接
(2)每一个神经元内部都会保存它先前的值
(3)与一般神经元一样的更新,但是有与当前神经元之前值之间的额外权重或与同一神经细胞层各个神经元之间的额外权重
(4)当前值和存储的先前值之间权重的工作机制有两个特性。第一,维持一个特定的状态。第二:如果不对其持续进行更新,这个状态就会消失。
(5)只储存两个状态(前一节点和当前节点)
8.长短期记忆神经元
(1)用于克服循环神经元中信息快速流失的问题
(2)与这种类型的神经元细胞连接需要设置四个权重,输出值的当前和先前值,记忆神经元状态的当前值和先前值
(3)可以让所有的信息都通过,或者只是通过部分,也可以什么都不让通过,或者通过某个区间的信息
(4)四种门:输入门,输出门,遗忘门,常规输入。输入门决定输入的信息有多少可以被叠加到当前门值。输出门决定有多少输出信息是可以传递到后面的神经网络中。遗忘门并不是和输出神经元的先前值相连接,而是,和前一记忆神经元相连接。它决定了保留多少记忆神经元最新的状态信息
9.门控循环神经元
(1)用门来抑制信息的流失,但是只用两个门:更新门和重置门
(2)LSTM的变体
(3)运行速度更快了,因为它们在所有的地方使用了更少的连接

猜你喜欢

转载自blog.csdn.net/zeshen123/article/details/110099040