简单易懂-秒懂级卷积网络形态识别图解


这里以一维的卷积作为图示,一是好画,二是好理解,三是可类推到二维及以上更高维度。

流程概览

这是第一层的卷积+ReLU图示
在这里插入图片描述

背景

假设有这样一组数据,随时间从0到200之间不断摆动:
在这里插入图片描述
我们的目的是检测四个特殊位置:
上升(从0到200)、下降(从200到0)、波峰的位置(200),和波谷的位置(0)

卷积核功能

因为这四个特殊位置各有特点,因此每个位置都分配一个卷积核
在这里插入图片描述
其中:

  • [-1,-1,2]检测上升
  • [2,-1,-1]检测下降
  • [-1,2,-1]检测波峰
  • [1,-2,1]检测波谷

怎么做到呢?
我们看一下运算过程:
在这里插入图片描述
这四个卷积核从左到右每个位置都和原始的数据做一次运算,以[-1,-1,2]为例:
( − 1 ) ∗ 0 + ( − 1 ) ∗ 50 + 2 ∗ 100 = 150 ( − 1 ) ∗ 50 + ( − 1 ) ∗ 100 + 2 ∗ 150 = 150 ( − 1 ) ∗ 100 + ( − 1 ) ∗ 150 + 2 ∗ 200 = 150 ( − 1 ) ∗ 150 + ( − 1 ) ∗ 200 + 2 ∗ 150 = − 50 ( − 1 ) ∗ 200 + ( − 1 ) ∗ 150 + 2 ∗ 100 = − 150 ( − 1 ) ∗ 150 + ( − 1 ) ∗ 100 + 2 ∗ 50 = − 150 ( − 1 ) ∗ 100 + ( − 1 ) ∗ 50 + 2 ∗ 0 = − 150 ( − 1 ) ∗ 50 + ( − 1 ) ∗ 0 + 2 ∗ 50 = 50 ( − 1 ) ∗ 0 + ( − 1 ) ∗ 50 + 2 ∗ 100 = 150 ( − 1 ) ∗ 50 + ( − 1 ) ∗ 100 + 2 ∗ 150 = 150 ( − 1 ) ∗ 100 + ( − 1 ) ∗ 150 + 2 ∗ 200 = 150 (-1)*0+(-1)*50+2*100=150\\ (-1)*50+(-1)*100+2*150=150\\ (-1)*100+(-1)*150+2*200=150\\ (-1)*150+(-1)*200+2*150=-50\\ (-1)*200+(-1)*150+2*100=-150\\ (-1)*150+(-1)*100+2*50=-150\\ (-1)*100+(-1)*50+2*0=-150\\ (-1)*50+(-1)*0+2*50=50\\ (-1)*0+(-1)*50+2*100=150\\ (-1)*50+(-1)*100+2*150=150\\ (-1)*100+(-1)*150+2*200=150\\ (1)0+(1)50+2100=150(1)50+(1)100+2150=150(1)100+(1)150+2200=150(1)150+(1)200+2150=50(1)200+(1)150+2100=150(1)150+(1)100+250=150(1)100+(1)50+20=150(1)50+(1)0+250=50(1)0+(1)50+2100=150(1)50+(1)100+2150=150(1)100+(1)150+2200=150
其他三行按这样运算依次可以得出

ReLU

卷积卷出来了,接下来怎么办?
这时候就看ReLU了:
在这里插入图片描述
ReLU的作用是把负数变成0,
因此在ReLU之后,只保留了卷积运算后大于或等于0的结果
这时候与最初的走势对比:
在这里插入图片描述
发现了什么?
[-1,-1,2]输出大于0的位置正好是上升的位置
[2,-1,-1]输出大于0的位置正好是下降的位置
[-1,2,-1]输出大于0的位置正好是波峰的位置
[1,-2,1]输出大于0的位置正好是波谷的位置

在ReLU之后,大体的数据规律已经出来了

第二层

到这里,我们用眼睛已经可以直观看出来了,那在网络中怎么利用起来?
第二层的卷积核,任务是处理来自前层的输入,通过对前层的输入的可能组合进行检测,可能的组合在第二层中表现为不同的权重。

整体走势

推广到第二层、第三层…

从上面已经可以看到卷积的特征提取能力了,但只有这些是还不够的,因为这些信息还没有充分利用起来,怎么利用呢?
这就是第二层与第三层以及更高层的事了,虽然它们总结的是更高级的整体特征,不是第一层这样明显的局部的数据特征,但它们的总结过程和第一层是相似的:
都是用特定的卷积权重,匹配相应的数据模式
这些权重只有在遇到和它高度匹配的数据时,经过激活函数(不一定是ReLU)后保留下来的(响应)值才更高
越来越多不同的卷积核共同作用时,对原始的数据,就可以尽在掌握了
这些原始数据可能是如上面例子的一根曲线,也可能是多通道图像,也可能是更高维度的东西。

训练

上面说明了卷积网络的特征提取能力,说明了卷积网络是可行的特征提取器,描述的是训练的目标。
一开始这些卷积核参数是随机的,一般从指定的分布中生成。
但不论何种训练算法,目的都是把卷积核往向完美的特征提取器方向训练。
目标是切实可行的,再谈方法!

猜你喜欢

转载自blog.csdn.net/qq_17065591/article/details/108136659