def fully_connected(
inputs, # 输入
num_outputs, # 本层输出的数量
activation_fn=tf.nn.relu, # 本层的激活函数(None则默认为线性)
normalizer_fn=None, # 正则化函数(用来替代偏置[biases],如果设置,则biases的两个选项dou)
normalizer_params=None, # 正则化参数
weights_initializer=initializers.xavier_initializer(), # 权重正则化
weights_regularizer=None, # 权重可选正则化
biases_initializer=init_ops.zeros_initializer(), #偏置初始化
biases_regularizer=None, # 对偏置的正则化选择
reuse=None, # 是否重用该层及其变量
variables_collections=None,
outputs_collections=None,
trainable=True, # 如果我们是微调网络,有的时候需要冻结某一层的参数,则该项设置为False
scope=None): # 可变范围
ps:写的不是很好,只能提供一些简单的帮助,随着以后学习的加深,我会慢慢再补充修改内容的,谢谢。