tensorflow代码实战5_添加层add_layer_简单例子

说明:资料来源于莫烦老师教程:

https://www.youtube.com/watch?v=FTR36h-LKcY&list=PLXO45tsB95cKI5AIlf5TxxFPzb-0zeVZ8&index=15

一、代码

import tensorflow as tf


def add_layer(inputs,in_size,out_size,activation_function=None):#None即没有激活函数即表示线性函数
	Weights = tf.Variable(tf.random_normal([in_size,out_size]))#变量矩阵,行列分别是in_size,out_size
	biases = tf.Variable(tf.zeros([1,out_size])+0.1)#不推荐biases为0,因此加上一个0.1
	Wx_plus_b = tf.matrixmul(inputs,Weights) + biases #这时候,Wx_plus_b存储着没有被激活的结果
	if activation_function is None:#None表示他现在是线性关系
		outputs = Wx_plus_b#既然是线性关系,则没有必要加上激活函数,保持现状就ok
	else:
		outputs = activation_function(Wx_plus_b)
	return outputs



猜你喜欢

转载自blog.csdn.net/Johnisjohn/article/details/90140239
今日推荐