Tensorflow tensor随机存取和遍历处理

  1. tensor可以像普通numpy array那样随机存取吗,注意这个是表面的现象。
  2. tensor并不是内容空间的容器,所以没有读取这一说
  3. tensor只是operation的输入和输出的值
import tensorflow as tf
data=tf.constant([[1,2,3],[4,5,6]])
posi=tf.convert_to_tensor([0,2])
re=data[posi[0]][posi[1]]
with tf.Session() as sess:
    print(sess.run(re))

什么时候才真正需要使用tensorflow的while_loop?

只要能事先知道tensor的size,都可以通过python的循环来对tensor的entry遍历处理。比如如下代码 

import tensorflow as tf

data=tf.constant([[1,2,3],[4,5,6]])
aa=data*1
size=aa.get_shape()
sum=tf.convert_to_tensor(0)
for i in range(2):
    for j in range(2):
        sum=sum+data[i][j]
with tf.Session() as sess:
    print(sess.run([sum, size]))

但在tensor size只有在运行的时候才能确定时,比如输入不同尺寸的图片,不同数量的bounding box,就没把发在定义graph的时候就确定个数,这时只有使用tf.while_loop.

data=<any thing>
def cond(i, n,_):
    return tf.less(i, n)
def body(i,_, loss):
    loss = loss+do_someting_with_ith_entry(data[i])
    return tf.add(i, 1), loss
_, loss = tf.while_loop(cond, body, [1, <max interate val>), 0])

猜你喜欢

转载自blog.csdn.net/ziliwangmoe/article/details/81302146
今日推荐