import tensorflow as tf #传入的参数有输入层,输入大小,输出大小,还有一个激励函数,默认是NONE(线性函数) def add_layer(inputs,in_size,out_size,activation_function = None): Weights = tf.Variable(tf.random_normal([in_size],[out_size])) #定义权重为随机变量,因为随机变量生成初始变量要比0好很多。形状是【2】【3】:2行3列 #机器学习推荐变量不为0.他的size是:1行our_size列 biases = tf.Variable(tf.zeros([1,out_size])) + 0.1 Wx_plus_b = tf.matmul(inputs,Weights) + biases #matmul是矩阵的乘法。还没被激活的值存在这个变量中 if activation_function is None: outputs = Wx_plus_b #因为当参数是None的时候,activation_function是一个线性方程,所以不需要激活。一般需要激活的函数都是非线性函数 else: outputs = activation_function(Wx_plus_b) return outputs #添加了一层神经层
Tensorflow添加一层神经层
猜你喜欢
转载自blog.csdn.net/daxuan1881/article/details/84855236
今日推荐
周排行