TensorFlow练习(二)——搭建神经网络结构

首先, 我们这次需要加载 tensorflow 和 numpy 两个模块, 并且使用 numpy 来创建我们的数据.

import tensorflow as tf
import numpy as np

# create data
x_data = np.random.rand(100).astype(np.float32)
y_data = x_data*0.1 + 0.3
接着, 我们用  tf.Variable  来创建描述  y  的参数. 我们可以把  y_data = x_data*0.1 + 0.3  想象成  y=Weights * x + biases , 然后神经网络也就是学着把 Weights 变成 0.1, biases 变成 0.3.
Weights = tf.Variable(tf.random_uniform([1], -1.0, 1.0))
biases = tf.Variable(tf.zeros([1]))

y = Weights*x_data + biases
接着就是计算  y  和  y_data  的误差:
loss = tf.reduce_mean(tf.square(y-y_data))
反向传递误差的工作就教给 optimizer 了, 我们使用的误差传递方法是梯度下降法:  Gradient Descent 让后我们使用  optimizer  来进行参数的更新.
optimizer = tf.train.GradientDescentOptimizer(0.5)
train = optimizer.minimize(loss)
到目前为止, 我们只是建立了神经网络的结构, 还没有使用这个结构. 在使用这个结构之前, 我们必须先初始化所有之前定义的 Variable
init = tf.global_variables_initializer()
接着,我们再创建会话  Session . 我们用  Session  来执行  init  初始化步骤. 并且, 用  Session  来  run  每一次 training 的数据. 逐步提升神经网络的预测准确性.
sess = tf.Session()
sess.run(init)          # Very important

for step in range(201):
    sess.run(train)
    if step % 20 == 0:
        print(step, sess.run(Weights), sess.run(biases))


猜你喜欢

转载自blog.csdn.net/yueguizhilin/article/details/77717637