numpy.random.RandomState()函数用法
原文:https://blog.csdn.net/yawdeep/article/details/78827088
可通过用Numpy工具包生成模拟数据集
使用RandomState获得随机数生成器
from numpy.random import RandomState
rdm = RandomState(1)
#1为随机种子,只要随机种子seed相同,产生的随机数序列就相同
a = rdm.uniform(1,2,(3,4))
print(a)
结果为:
[[ 1.417022 1.72032449 1.00011437 1.30233257]
[ 1.14675589 1.09233859 1.18626021 1.34556073]
[ 1.39676747 1.53881673 1.41919451 1.6852195 ]]
产生一个3行4列的数组,其中每个元素都是在[1,2]区间内均匀分布的随机数
值域范围 tf.clip_by_value的用法
tf.clip_by_value(A, min, max):输入一个张量A,把A中的每一个元素的值都压缩在min和max之间。小于min的让它等于min,大于max的元素的值等于max。
import tensorflow as tf
import numpy as np
A = np.array([[1,1,2,4], [3,4,8,5]])
with tf.Session() as sess:
print sess.run(tf.clip_by_value(A, 2, 5))
输出:
[[2 2 2 4]
[3 4 5 5]]
原文:https://blog.csdn.net/jacke121/article/details/77747798
tf.train中的Optimizer相关的函数与功能介绍
原文:https://blog.csdn.net/shenxiaoming77/article/details/77169756
本文所讲的内容主要为以下列表中相关函数。函数training()通过梯度下降法为最小化损失函数增加了相关的优化操作,在训练过程中,先实例化一个优化函数,比如 tf.train.GradientDescentOptimizer,并基于一定的学习率进行梯度优化训练:
optimizer = tf.train.GradientDescentOptimizer(learning_rate)
然后,可以设置 一个用于记录全局训练步骤的单值。以及使用minimize()操作,该操作不仅可以优化更新训练的模型参数,也可以为全局步骤(global step)计数。与其他tensorflow操作类似,这些训练操作都需要在tf.session会话中进行
global_step = tf.Variable(0, name='global_step', trainable=False)
train_op = optimizer.minimize(loss, global_step=global_step)