了解Tensorflow的开发基本步骤
1. 定义Tensorflow输入节点
定义输入节点的方法
- 通过占位符定义(一般情况)
- 通过字典类型定义(用于输入比较多的情况)
- 直接定义(很少使用)
1. 通过占位符定义(一般情况)
如 y = 2x 的大致拟合中就是使用占位符定义输入节点的
X = tf.placeholder("float")
Y = tf.placeholder("float")
2. 通过字典类型定义(用于输入比较多的情况)
和第一种比较类似
# 占位符
inputdict = {
'x': tf.placeholder("float"),
'y': tf.placeholder("float")
}
3. 直接定义(很少使用)
将定义好的 Python 变量直接放到 OP 节点中参与输入的运算,将模拟数据变量直接放到模型中进行训练。
#生成模拟数据
train_X =np.float32( np.linspace(-1, 1, 100))
train_Y = 2 * train_X + np.random.randn(*train_X.shape) * 0.3 # y=2x,但是加入了噪声
#图形显示
plt.plot(train_X, train_Y, 'ro', label='Original data')
plt.legend()
plt.show()
# 模型参数
W = tf.Variable(tf.random_normal([1]), name="weight")
b = tf.Variable(tf.zeros([1]), name="bias")
# 前向结构
z = tf.multiply(W, train_X)+ b
2. 定义“学习参数”变量
直接定义
W = tf.Variable(tf.random_normal([1]), name = "weigth")
b = tf.Variable(tf.zeros([1]), name = "bias")
字典定义
# 模型参数
paradict = {
'w' = tf.Variable(tf.random_normal([1]), name = "weigth"),
'b' = tf.Variable(tf.zeros([1]), name = "bias")
}
# 向前结构
z = tf.multipply(X, paradict['w']) + paradict['b']
3. 定义“运算”
正向传播模型
- 单层神经网络
- 多层神经网络
- 卷积神经网络
- 循环神经网络
- GoogLeNet
- Resnet
定义损失函数
主要用于计算“输出值”与“目标值”之间的误差,是配合反向传播使用的
(必须可导)
Tensorflow框架已经为我们准备好了
4. 优化函数,优化目标
5. 初始化所有变量
# 初始化变量
init = tf.global_variables_initializer()
# 这步必须在所有变量和OP定义完成之后,这样才能保证定义内容的有效性,否则无法使用session中的run来进行算值
# 启动session
with tf.Session() as sess:
sess.run(init)
6. 迭代更新参数到最优解
在迭代训练环节,都是需要通过建立一个session来完成的,常用的是使用with 语法,可以在session结束后自行关闭
with tf Session() as sess:
sess.run(init)
for epoch in range(training_epochs):
for (x, y) in zip(train_X, train_Y):
sess.run(optimizer, feed_dict={
X: x, Y: y})
使用MINIBATCH的概念进行迭代训练(每次取一定量的数据同时放到网络里进行训练)
7. 测试模型
print ("cost=", sess.run(cost, feed_dict={
X: train_X, Y: train_Y}), "W=", sess.run(W), "b=", sess.run(b))
# print ("cost:",cost.eval({X: train_X, Y: train_Y}))
8. 使用模型
print ("x=0.2,z=", sess.run(z, feed_dict={
X: 0.2}))