tf.fully_connected

 def fully_connected(

  inputs,  # 输入

  num_outputs,  #  本层输出的数量

  activation_fn=tf.nn.relu,  # 本层的激活函数(None则默认为线性)

  normalizer_fn=None,  # 正则化函数(用来替代偏置[biases],如果设置,则biases的两个选项dou)

  normalizer_params=None,  # 正则化参数

  weights_initializer=initializers.xavier_initializer(),  # 权重正则化

  weights_regularizer=None,  # 权重可选正则化

  biases_initializer=init_ops.zeros_initializer(),  #偏置初始化

  biases_regularizer=None,  # 对偏置的正则化选择

  reuse=None,  # 是否重用该层及其变量

  variables_collections=None,

  outputs_collections=None,

  trainable=True,  # 如果我们是微调网络,有的时候需要冻结某一层的参数,则该项设置为False

  scope=None):  # 可变范围

ps:写的不是很好,只能提供一些简单的帮助,随着以后学习的加深,我会慢慢再补充修改内容的,谢谢。

猜你喜欢

转载自www.cnblogs.com/lyf98/p/11712455.html
今日推荐