2019/04/08

numpy.random.RandomState()函数用法

原文:https://blog.csdn.net/yawdeep/article/details/78827088 

可通过用Numpy工具包生成模拟数据集

使用RandomState获得随机数生成器

from numpy.random import RandomState
 
rdm = RandomState(1)
 

#1为随机种子,只要随机种子seed相同,产生的随机数序列就相同

a = rdm.uniform(1,2,(3,4))
print(a)
结果为:

[[ 1.417022    1.72032449  1.00011437  1.30233257]
 [ 1.14675589  1.09233859  1.18626021  1.34556073]
 [ 1.39676747  1.53881673  1.41919451  1.6852195 ]]
 

产生一个3行4列的数组,其中每个元素都是在[1,2]区间内均匀分布的随机数

值域范围 tf.clip_by_value的用法

tf.clip_by_value(A, min, max):输入一个张量A,把A中的每一个元素的值都压缩在min和max之间。小于min的让它等于min,大于max的元素的值等于max。

import tensorflow as tf  
import numpy as np  
  
A = np.array([[1,1,2,4], [3,4,8,5]])  
  
with tf.Session() as sess:  
      print sess.run(tf.clip_by_value(A, 2, 5))  

输出:

[[2 2 2 4]
 [3 4 5 5]]


原文:https://blog.csdn.net/jacke121/article/details/77747798 

tf.train中的Optimizer相关的函数与功能介绍

原文:https://blog.csdn.net/shenxiaoming77/article/details/77169756

本文所讲的内容主要为以下列表中相关函数。函数training()通过梯度下降法为最小化损失函数增加了相关的优化操作,在训练过程中,先实例化一个优化函数,比如 tf.train.GradientDescentOptimizer,并基于一定的学习率进行梯度优化训练:

optimizer = tf.train.GradientDescentOptimizer(learning_rate)

然后,可以设置 一个用于记录全局训练步骤的单值。以及使用minimize()操作,该操作不仅可以优化更新训练的模型参数,也可以为全局步骤(global step)计数。与其他tensorflow操作类似,这些训练操作都需要在tf.session会话中进行

global_step = tf.Variable(0, name='global_step', trainable=False)
train_op = optimizer.minimize(loss, global_step=global_step)


 

猜你喜欢

转载自blog.csdn.net/evergreenswj/article/details/89081111