Tensorflow数据模型-----张量的使用

张量的使用可以分为两大类:
   1:对中间计算结果的引用,当一个计算包含很多中间结果时,使用张量可以大大提升代码的可读性,给出一例:
#可读性较强
 
  
a = tf.constant([1.0,2.0],name = "a")
b = tf.constant([3.0,4.0],name = "b")
result = a + b

#直接计算 这样可能会可读性差
result = tf.constant([1.0,2.0],name = "a") + tf.constant([3.0,4.0],name = "b")

a,b即为对常量生成这个运算结果的引用,这个在加发是就可以直接引用这两个常量,而不需要再去生成新的常量。比如在构建深层次的神经网络时,通过引用中间结果是使代码可阅读性大大增加,同时还可以方便的获取中间结果,在卷积神经网络中,卷积层和pooling会改变张量的维度,通过result.get_shape 函数来获取结果张量维度信息。
     在上一节中,是否记得我们想要计算一个两个列表的相加,可是最终却只获得了一个张量的结构,那怎么办呢?下一节中我们将引如Tensorflow的运行模型。

猜你喜欢

转载自blog.csdn.net/qq_26577455/article/details/79924120