tensorflow 保存和加载模型 -2

1、我们经常在训练完一个模型之后希望保存训练的结果,这些结果指的是模型的参数,以便下次迭代的训练或者用作测试。Tensorflow针对这一需求提供了Saver类。

  1. Saver类提供了向checkpoints文件保存和从checkpoints文件中恢复变量的相关方法Checkpoints文件是一个二进制文件,它把变量名映射到对应的tensor值
  2. 只要提供一个计数器,当计数器触发时,Saver类可以自动的生成checkpoint文件。这让我们可以在训练过程中保存多个中间结果。例如,我们可以保存每一步训练的结果。
  3. 为了避免填满整个磁盘,Saver可以自动的管理Checkpoints文件。例如,我们可以指定保存最近的N个Checkpoints文件
2、code
[python] view plain copy
  1. import tensorflow as tf  
  2. import numpy as np  
  3.   
  4. isTrain = True  
  5. train_steps = 100  
  6. checkpoint_steps = 50  
  7. checkpoint_dir = '/home/jdlu/jdluTensor/test/tmp/'  
  8.   
  9. x = tf.placeholder(tf.float32, shape=[None1])  
  10. y = 4 * x + 4  
  11.   
  12. w = tf.Variable(tf.random_normal([1], -11))  
  13. b = tf.Variable(tf.zeros([1]))  
  14. y_predict = w * x + b  
  15.   
  16.   
  17. loss = tf.reduce_mean(tf.square(y - y_predict))  
  18. optimizer = tf.train.GradientDescentOptimizer(0.5)  
  19. train = optimizer.minimize(loss)  
  20.   
  21. isTrain = False  
  22. train_steps = 100  
  23. checkpoint_steps = 50  
  24. checkpoint_dir = ''  
  25.   
  26. saver = tf.train.Saver()  # defaults to saving all variables - in this case w and b  
  27. x_data = np.reshape(np.random.rand(10).astype(np.float32), (101))  
  28.   
  29. with tf.Session() as sess:  
  30.     sess.run(tf.initialize_all_variables())  
  31.     if isTrain:  
  32.         for i in xrange(train_steps):  
  33.             sess.run(train, feed_dict={x: x_data})  
  34.             if (i + 1) % checkpoint_steps == 0:  
  35.                 saver.save(sess, checkpoint_dir + 'model.ckpt', global_step=i+1)  
  36.     else:  
  37.         ckpt = tf.train.get_checkpoint_state(checkpoint_dir)  
  38.         if ckpt and ckpt.model_checkpoint_path:  
  39.             saver.restore(sess, ckpt.model_checkpoint_path)  
  40.         else:  
  41.             pass  
  42.         print(sess.run(w))  
  43.         print(sess.run(b))  

说明:

训练的过程:

1、先设置isTrain=True,然后会保存模型,设置isTrain=False会将训练好的模型加载进来进行测试

2、train_steps:表示训练的次数,例子中使用100
3、checkpoint_steps:表示训练多少次保存一下checkpoints,例子中使用50
4、checkpoint_dir:表示checkpoints文件的保存路径,例子中使用当前路径

[python] view plain copy
  1. if isTrain:  
  2.     for i in xrange(train_steps):  
  3.         sess.run(train, feed_dict={x: x_data})  
  4.         if (i + 1) % checkpoint_steps == 0:  
  5.             saver.save(sess, checkpoint_dir + 'model.ckpt',global_step = i+1)  
说明:每训练checkpoint_steps就保存一次模型,在训练的过程中,就可以多次保存模型。

测试的过程:

1、测试的过程就是加载训练模型好的模型

[python] view plain copy
  1. ckpt = tf.train.get_checkpoint_state(checkpoint_dir)  
  2.        if ckpt and ckpt.model_checkpoint_path:  
  3.            saver.restore(sess, ckpt.model_checkpoint_path)  
  4.        else:  
  5.            pass  
  6.        print(sess.run(w))  
  7.        print(sess.run(b))  

说明:

checkpoint的文件内容:


保存model的路径下的文件内容:


[python] view plain copy
  1. saver.save(sess, checkpoint_dir + 'model.ckpt',global_step = i+1)  

每次保存一次都会相应生成三个文件,分别是.data-00000-of-00001,.index,.meta

==================================================================================================================

猜你喜欢

转载自blog.csdn.net/weixin_38208741/article/details/80661498