Tensorflow学习(二)之——保存加载模型、Saver的用法

1. Saver的背景介绍

    我们经常在训练完一个模型之后希望保存训练的结果,这些结果指的是模型的参数,以便下次迭代的训练或者用作测试。Tensorflow针对这一需求提供了Saver类。

  1. Saver类提供了向checkpoints文件保存和从checkpoints文件中恢复变量的相关方法。Checkpoints文件是一个二进制文件,它把变量名映射到对应的tensor值 。
  2. 只要提供一个计数器,当计数器触发时,Saver类可以自动的生成checkpoint文件。这让我们可以在训练过程中保存多个中间结果。例如,我们可以保存每一步训练的结果。
  3. 为了避免填满整个磁盘,Saver可以自动的管理Checkpoints文件。例如,我们可以指定保存最近的N个Checkpoints文件。

2. tf.train.get_checkpoint_state

tf.train.get_checkpoint_state函数通过checkpoint文件找到模型文件名

tf.train.get_checkpoint_state(checkpoint_dir,latest_filename=None)

该函数返回的是checkpoint文件CheckpointState proto类型的内容,其中有model_checkpoint_path和all_model_checkpoint_paths两个属性。其中model_checkpoint_path保存了最新的tensorflow模型文件的文件名,all_model_checkpoint_paths则有未被删除的所有tensorflow模型文件的文件名。

1.参数cheackpoint_dir:  模型所在的文件夹名字

3.实例展示

获取一个文件例子:

import tensorflow as tf
import numpy as np
 
x = tf.placeholder(tf.float32, shape=[None, 1])
y = 4 * x + 4
 
w = tf.Variable(tf.random_normal([1], -1, 1))
b = tf.Variable(tf.zeros([1]))
y_predict = w * x + b
 
 
loss = tf.reduce_mean(tf.square(y - y_predict))
optimizer = tf.train.GradientDescentOptimizer(0.6)
train = optimizer.minimize(loss)
 
isTrain = False
train_steps = 10
checkpoint_steps = 5
checkpoint_dir = ''
 
saver = tf.train.Saver()  # defaults to saving all variables - in this case w and b
x_data = np.reshape(np.random.rand(10).astype(np.float32), (10, 1))
 
with tf.Session() as sess:
    sess.run(tf.initialize_all_variables())
    if isTrain:
        for i in xrange(train_steps):
            sess.run(train, feed_dict={x: x_data})
            if (i + 1) % checkpoint_steps == 0:
                saver.save(sess, checkpoint_dir + 'model.ckpt', global_step=i+1)
    else:
        ckpt = tf.train.get_checkpoint_state(checkpoint_dir)
        if ckpt and ckpt.model_checkpoint_path:
            saver.restore(sess, ckpt.model_checkpoint_path)         #ckpt.model_checkpoint_path就是模型的路径名字。表示获取最新的tensorflow模型文件的文件名
        else:
            pass
        print(sess.run(w))
        print(sess.run(b))



#isTrain:用来区分训练阶段和测试阶段,True表示训练,False表示测试
#train_steps:表示训练的次数
#checkpoint_steps:表示训练多少次保存一下checkpoint
#checkpoint_dir:表示checkpoints文件的保存路径,例子中使用当前路径

获取多有模型例子:

with tf.Session() as sess:            
            ckpt=tf.train.get_checkpoint_state('Model/')
            print(ckpt)
            if ckpt and ckpt.all_model_checkpoint_paths:
                #加载模型
                #这一部分是有多个模型文件时,对所有模型进行测试验证
                for path in ckpt.all_model_checkpoint_paths:
                    saver.restore(sess,path)                
                    global_step=path.split('/')[-1].split('-')[-1]
                    accuracy_score=sess.run(accuracy,feed_dict=validate_feed)
                    print("After %s training step(s),valisation accuracy = %g"%(global_step,accuracy_score))
              
            else:
                print('No checkpoint file found')
                return
        #time.sleep(eval_interval_secs)
        return

猜你喜欢

转载自blog.csdn.net/comway_Li/article/details/81254694