问题解答:DataLossError: corrupted record at XXX

这个问题其中一种原因是Tensorflow在制作TFRecord的过程中出错,具体原因未知,我在用anaconda时总出错,最后解决方法为使用.py文件(IDE为Spyder)制作后就可以运行了。

出现这种问题时建议大家重新测试时不要带模型测试,太慢了,可以使用如下格式进行测试,

num_epochs设置为1,range设置为比文件数多就行,首先单纯的运行label,如果没问题再运行label_batch,如果都显示OutOfRangeError,说明DataLossError已经解决了。

import tensorflow as tf
import time
begin=time.time()
filename_queue = tf.train.string_input_producer(['...\\py.tfrecords'],num_epochs=1 )

reader = tf.TFRecordReader()
_, serialized_example = reader.read(filename_queue) #返回文件名和文件

features = tf.parse_single_example(serialized_example,
                               features={
                               'label':tf.FixedLenFeature([],tf.int64),
                               'img':tf.FixedLenFeature([],tf.string),
                               })
img=tf.decode_raw(features['img'],tf.uint8)
img=tf.cast(img,tf.float32)
label=tf.cast(features['label'],tf.int32)
img = tf.reshape(img, [224,224,3])
min_after_dequeue = 10000
batch_size = 50
capacity = min_after_dequeue + 3 * batch_size

image_batch, label_batch = tf.train.shuffle_batch([img, label], 
                                                    batch_size=batch_size, 
                                                    capacity=capacity, 
                                                    min_after_dequeue=min_after_dequeue)  

with tf.Session() as sess:
    sess.run((tf.global_variables_initializer(),
              tf.local_variables_initializer()))
    coord = tf.train.Coordinator()
    threads = tf.train.start_queue_runners(sess=sess,coord=coord)
    # 循环的训练神经网络。
    
    for i in range(50000): 
        sess.run(label_batch)
        if i%100==0:
            print(sess.run(label_batch))
            print(i)
#         print(time.time()-begin)

    coord.request_stop()
    coord.join(threads)
print(time.time()-begin)

注:大多数这类问题大家直接去Tensorflow的Github-issues下去搜,国内相关疑难问题解答很少,不用费劲搜了(例如本问题我就百度到了一个大佬的)。

猜你喜欢

转载自blog.csdn.net/Rrui7739/article/details/81003577