tensorflow队列管理器和协程协调器实现异步读取数据训练

版权声明:本文为博主原创文章,未经博主允许不得转载。 https://blog.csdn.net/XUEER88888888888888/article/details/86564682

在这里插入图片描述

在这里插入图片描述

在这里插入图片描述

在这里插入图片描述

代码

import tensorflow as tf

#模拟异步子线程 存入样本,主线程 读取样本

#1.定义一个队列
Q = tf.FIFOQueue(1000,tf.float32)

#2.定义要做的事情 循环 值+1, 放入队列当中
var = tf.Variable(0.0)

#实现一个自增
data = tf.assign_add(var , tf.constant(1.0))
en_q = Q.enqueue(data)#入队列

#定义队列管理器op,指定多少个子线程,子线程该干什么事
qr = tf.train.QueueRunner(Q,enqueue_ops=[en_q]*2)

#初始化队列的OP
init_op = tf.global_variables_initializer()


with tf.Session() as  sess:
    #初始化变量
    sess.run(init_op)

    #开启线程管理器
    coord = tf.train.Coordinator()

    #真正开启子线程
    threads = qr.create_threads(sess,coord=coord, start=True)

    #主线程,不断读取训练数据
    for i in range(300):
        print(sess.run(Q.dequeue()))

    #回收子线程
    coord.request_stop()
    coord.join()

猜你喜欢

转载自blog.csdn.net/XUEER88888888888888/article/details/86564682