理解卷积神经网络CNN中的特征图 feature map

深度学习中feature map是什么?

在每个卷积层,数据都是以三维形式存在的。你可以把它看成许多个二维图片叠在一起,其中每一个称为一个feature map。在输入层,如果是灰度图片,那就只有一个feature map;如果是彩色图片,一般就是3个feature map(红绿蓝)。层与层之间会有若干个卷积核(kernel),上一层和每个feature map跟每个卷积核做卷积,都会产生下一层的一个feature map。

在CNN的设定里,Feature Map是卷积核卷出来的,你用各种情况下的卷积核去乘以原图,会得到各种各样的feature map。

个人理解:从多角度去分析图片,不同的特征提取(核)会提取到不同的feature,模型为了达到最优解的目的,来找到能解释现象的最佳的一组卷积核。主要是和卷积核(kernel)区分开,kernel是要算的那个w权重矩阵,而feature map 是输入或者输出。

在CNN网络中roi从原图映射到feature map中的计算方法

INPUT为3232,filter的大小即kernel size为55,stride = 1,pading=0,卷积后得到的feature maps边长的计算公式是:
output_h =(originalSize_h+padding2-kernelSize_h)/stride +1
所以,卷积层的feature map的变长为:conv1_h=(32-5)/1 + 1 = 28
卷积层的feature maps尺寸为28
28.
由于同一feature map共享权值,所以总共有6*(5*5+1)=156个参数。

转载:https://blog.csdn.net/w13940062279/article/details/125727261
参考:https://blog.csdn.net/boon_228/article/details/81238091

猜你喜欢

转载自blog.csdn.net/Adam897/article/details/126388838
今日推荐