tensorflow代码实战6_构建第一个神经网路_简单例子

说明:资料来源于莫烦老师的视频:

https://www.youtube.com/watch?v=S9wBMi2B4Ss&list=PLXO45tsB95cKI5AIlf5TxxFPzb-0zeVZ8&index=16

一、代码

import tensorflow as tf
import numpy as np

def add_layer(inputs,in_size,out_size,activation_function=None):#None即没有激活函数即表示线性函数
	Weights = tf.Variable(tf.random_normal([in_size,out_size]))#变量矩阵,行列分别是in_size,out_size
	biases = tf.Variable(tf.zeros([1,out_size])+0.1)#不推荐biases为0,因此加上一个0.1
	Wx_plus_b = tf.matmul(inputs,Weights) + biases #这时候,Wx_plus_b存储着没有被激活的结果
	if activation_function is None:#None表示他现在是线性关系
		outputs = Wx_plus_b#既然是线性关系,则没有必要加上激活函数,保持现状就ok
	else:
		outputs = activation_function(Wx_plus_b)
	return outputs

x_data = np.linspace(-1,1,300)[:,np.newaxis]#-1到1的区间,有300行,后面是维度 
noise = np.random.normal(0,0.05,x_data.shape)#人为制造噪点,使之看起来更像真实数据,mean值是0,方差是0.05,格式与x_data是一样的格式
y_data = np.square(x_data) - 0.5 + noise


xs = tf.placeholder(tf.float32,[None,1])
ys = tf.placeholder(tf.float32,[None,1])

l1 = add_layer(xs,1,10,activation_function=tf.nn.relu)#第一个隐藏层
prediction = add_layer(l1,10,1,activation_function=None)#输出层

#开始预测
loss = tf.reduce_mean(tf.reduce_sum(tf.square(ys - prediction),
                     reduction_indices=[1]))#对每个粒子的差值求平方,再求和,再求平均
train_step = tf.train.GradientDescentOptimizer(0.1).minimize(loss)#0.1是学习率(通常小于1)。此句表示以0.1的效率对误差进行更正,然后下一次就会有更好的结果


init = tf.initialize_all_variables()
sess = tf.Session()
sess.run(init)#只有run以后才开始执行


for i in range(1000):
	sess.run(train_step,feed_dict={xs:x_data,ys:y_data})
	if i%50==0:
		print(sess.run(loss,feed_dict={xs:x_data,ys:y_data}))#每50步打印一次






二、运行结果

猜你喜欢

转载自blog.csdn.net/Johnisjohn/article/details/90142305