tensorflow 语法小结

版权声明:本文为博主原创文章,未经博主允许不得转载。 https://blog.csdn.net/qingfengxiaosong/article/details/82821192

创建一个一行两列的矩阵

matrix1 = tf.constant([[3., 3.]]) 

创建一个两行一列的矩阵 matrix2 = tf.constant([[2.],[2.]])

矩阵相乘 tf.matmul(matrix1, matrix2)

启动默认图. s

ess = tf.Session() result = sess.run(product)

### 任务完成, 关闭会话.

sess.close()

创建一个变量列表,(变量维护图的中间状态)

tf.Variable([1.0, 2.0])

 创建一个常量列表

tf.constant([3.0, 3.0]) 1

使用初始化器

initializer op 的 run()

方法初始化

‘x’ x.initializer.run()

增加一个减法 sub op, 从 ‘x’ 减去 ‘a’. 运行减法 op, 输出结果 sub = tf.sub(x, a)

计算state 和 one 的值

new_value = tf.add(state, one)

将 new_value 的值 赋给

state (state=new_value) update = tf.assign(state, new_value)

mul = multiply 是将input1和input2 做乘法运算,并输出为 output ouput = tf.multiply(input1, input2)

生成随机数,数据格式是 float 32 的形式

x_data = np.random.rand(100).astype(np.float32)

定义Wx_plus_b, 即神经网络未激活的值(预测的值)。其中,tf.matmul()是矩阵的乘法。

Wx_plus_b = tf.matmul(inputs,Weights) 1如果定义 Variable, 就一定要 initialize 激活变量 (此时没有激活只有 sess.run 才会激活)

init = tf.global_variables_initializer()

建立一个优化器, 减少神将网络的误差 GradientDescentOptimizer 是最基础的优化器, 0.5 为学习效率(0-1),

optimizer = tf.train.GradientDescentOptimizer(0.5) train = optimizer.minimize(loss) 

猜你喜欢

转载自blog.csdn.net/qingfengxiaosong/article/details/82821192