tensorflow layers模块操作

版权声明:本文为博主原创文章,未经博主允许不得转载。 https://blog.csdn.net/love_image_xie/article/details/84668619

tf.layers模块提供的方法有:

  • input(...): 实例化一个输入Tensor,作为一个神经网络的输入
  • average_pooling1d(...): 一维平均池化层
  • average_pooling2d(...): 二维平均池化层
  • average_pooling3d(...): 三维平均池化层
  • batch_normalization(...): BN(batch normalized)层
  • conv1d(...): 一维卷积层
  • conv2d(...): 二维卷积层
  • conv2d_transpose(...): 二维反卷积层
  • conv3d(...): 三维卷积层
  • conv3d_transpose(...): 三维反卷积层
  • dense(...): 全连接层
  • dropout(...): dropout层
  • flatten(...): Flatten层,将一个Tensor展平
  • max_pooling1d(...): 一维最大池化层
  • max_pooling2d(...): 二维最大池化层
  • max_pooling3d(...): 三维最大池化层
  • separable_conv2d(...): 二维深度可分离卷积层

具体实例如下:

#conv2d(input,filters,kernel_size,strides=(1,1),padding,activation)输入,输出通道数,卷积核大小,步长,填充(valid,same),tf.nn.relu等
conv1 = tf.layers.conv2d(inputs_, 16, (3,3), padding='same', activation=tf.nn.relu)

#max_pooling2d(input,pool_size,stride,padding,name=None)  可用stride=2,pool_size=2,也可用
maxpool1 = tf.layers.max_pooling2d(conv1, (2,2), (2,2), padding='same')

#dense(inputs,units, activation=None,...)输入,神经元数量,tf.nn.relu等
dense1=tf.layers.dense(maxpooling,20)

猜你喜欢

转载自blog.csdn.net/love_image_xie/article/details/84668619
今日推荐