Tensorflow添加一层神经层

import tensorflow as tf

#传入的参数有输入层,输入大小,输出大小,还有一个激励函数,默认是NONE(线性函数)
def add_layer(inputs,in_size,out_size,activation_function = None):
    Weights = tf.Variable(tf.random_normal([in_size],[out_size]))   #定义权重为随机变量,因为随机变量生成初始变量要比0好很多。形状是【2】【3】:2行3列
   #机器学习推荐变量不为0.他的size是:1行our_size列
    biases = tf.Variable(tf.zeros([1,out_size])) + 0.1
    Wx_plus_b = tf.matmul(inputs,Weights) + biases           #matmul是矩阵的乘法。还没被激活的值存在这个变量中
    if activation_function is None:
        outputs = Wx_plus_b  #因为当参数是None的时候,activation_function是一个线性方程,所以不需要激活。一般需要激活的函数都是非线性函数
    else:
        outputs = activation_function(Wx_plus_b)
    return  outputs
#添加了一层神经层

猜你喜欢

转载自blog.csdn.net/daxuan1881/article/details/84855236