创建一个一行两列的矩阵
matrix1 = tf.constant([[3., 3.]])
创建一个两行一列的矩阵 matrix2 = tf.constant([[2.],[2.]])
矩阵相乘 tf.matmul(matrix1, matrix2)
启动默认图. s
ess = tf.Session() result = sess.run(product)
### 任务完成, 关闭会话.
sess.close()
创建一个变量列表,(变量维护图的中间状态)
tf.Variable([1.0, 2.0])
创建一个常量列表
tf.constant([3.0, 3.0]) 1
使用初始化器
initializer op 的 run()
方法初始化
‘x’ x.initializer.run()
增加一个减法 sub op, 从 ‘x’ 减去 ‘a’. 运行减法 op, 输出结果 sub = tf.sub(x, a)
计算state 和 one 的值
new_value = tf.add(state, one)
将 new_value 的值 赋给
state (state=new_value) update = tf.assign(state, new_value)
mul = multiply 是将input1和input2 做乘法运算,并输出为 output ouput = tf.multiply(input1, input2)
生成随机数,数据格式是 float 32 的形式
x_data = np.random.rand(100).astype(np.float32)
定义Wx_plus_b, 即神经网络未激活的值(预测的值)。其中,tf.matmul()是矩阵的乘法。
Wx_plus_b = tf.matmul(inputs,Weights) 1如果定义 Variable, 就一定要 initialize 激活变量 (此时没有激活只有 sess.run 才会激活)
init = tf.global_variables_initializer()
建立一个优化器, 减少神将网络的误差 GradientDescentOptimizer 是最基础的优化器, 0.5 为学习效率(0-1),
optimizer = tf.train.GradientDescentOptimizer(0.5) train = optimizer.minimize(loss)