kereas里的各种层意义

1、其中在融合residual跟separable特征图的时候需要融合,其使用到的方法就是kereas里的layers里的add跟Add方法,其文档地址为:http://keras-cn.readthedocs.io/en/latest/layers/merge/

Add

keras.layers.Add()

添加输入列表的图层。该层接收一个相同shape列表张量,并返回它们的和,shape不变。

Example

import keras

input1 = keras.layers.Input(shape=(16,))
x1 = keras.layers.Dense(8, activation='relu')(input1)
input2 = keras.layers.Input(shape=(32,))
x2 = keras.layers.Dense(8, activation='relu')(input2)
added = keras.layers.Add()([x1, x2])  # equivalent to added = keras.layers.add([x1, x2])

out = keras.layers.Dense(4)(added)
model = keras.models.Model(inputs=[input1, input2], outputs=out)

其中在自己构建的网络特征融合时使用的代码如下:

# module 2  为了后面的网络特征融合,这里必须保证输入图像的shape大小是相同的,下面就是很巧妙的构建相同的shape
#这里的残差网络使用了一次strides,即网络特征图只减小了一次
residual = Conv2D(32, (1, 1), strides=(2, 2),
                  padding='same', use_bias=False)(x)
residual = BatchNormalization()(residual)

# 这里的可分离网络也使用了一次strides,其在maxPooling2D函数处,然后其他的使用了padding="same",不改变网络大小
x = SeparableConv2D(32, (3, 3), padding='same',
                    kernel_regularizer=regularization,
                    use_bias=False)(x)
x = BatchNormalization()(x)
x = Activation('relu')(x)
x = SeparableConv2D(32, (3, 3), padding='same',
                    kernel_regularizer=regularization,
                    use_bias=False)(x)
x = BatchNormalization()(x)
x = MaxPooling2D((3, 3), strides=(2, 2), padding='same')(x)
# 这里进行网络特征融合,
# x=layers.Add()([x,residual])
x = layers.add([x, residual])

猜你喜欢

转载自blog.csdn.net/yangdashi888/article/details/80452786