tensorflow--保存負荷モデル

S = mnist.train.next_batch(BATCH_SIZE)
プリント(xs.shape)
プリント(ys.shape)

##すべての変数の組から取られた
#1 tf.get_collection()
##追加リストに対応する要素内
([])#1 tf.add_nを
##変換型
#1 tf.cast(X、DTYPE =)
##ここで、戻りの最大値良いシーケンス
#tf.argmax(X、軸)
の##パスに追加
#インポートOSの
os.path.join( "ホーム"、 "名")#を
##文字列操作スプリット()
#」./model/momist_model- 1001 ".split(" / ") [ - 1] .split(" - 「)[ - 1]

##保存したモデル
#tf.train.Saverセーバー=()
セッション数AS tf.Session()と#:
#Iレンジ(ステップ)での場合:
#%ラウンドI 0 == IF:
#1 saver.save(セッション数、 os.path.join(モデル、NAME)、global_step、株式会社参加無料=)
の##負荷モデル

:セッション数AS tf.Session#()と
#= tf.train.get_checkpoint_state CKPT(ストレージ・パス)
:CKPTのandckpt.model_path IF#
#saver.restore(セッション数、ckpt.model_path)


の##が摺動Pingjun還元インスタンス化
=#EMAをtf.train.ExponentialMovingAverage(移動平均ベース)
#= ema_restore ema.variable_to_restore()
#= tf.train.Saverセーバー(ema_restore)


##計算精度
#correct_prediction = tf.equal(tf.argmax(Y ,. 1)、tf.argmax(Y_ ,. 1))
#= accurcy tf.reduce_mean(tf.cast(correct_prediction、tf.float32))

おすすめ

転載: www.cnblogs.com/shuimuqingyang/p/11022644.html