专栏首页python前行者tf.random_uniform与tf.truncated_normal

tf.random_uniform与tf.truncated_normal

tf.random_uniform 函数

random_uniform(shape,
                   minval=0,
                   maxval=None,
                   dtype=dtypes.float32,
                   seed=None,
                   name=None)

定义在:tensorflow/python/ops/random_ops.py.

请参阅指南:生成常量,序列和随机值>随机张量

从均匀分布中输出随机值.

生成的值在该 [minval, maxval) 范围内遵循均匀分布.下限 minval 包含在范围内,而上限 maxval 被排除在外.

对于浮点数,默认范围是 [0, 1).对于整数,至少 maxval 必须明确地指定.

在整数情况下,随机整数稍有偏差,除非 maxval - minval 是 2 的精确幂.对于maxval - minval 的值,偏差很小,明显小于输出(232 或者 264)的范围.

参数:

  • shape:一维整数张量或 Python 数组.输出张量的形状.
  • minval:dtype 类型的 0-D 张量或 Python 值;生成的随机值范围的下限;默认为0.
  • maxval:dtype 类型的 0-D 张量或 Python 值.要生成的随机值范围的上限.如果 dtype 是浮点,则默认为1 .
  • dtype:输出的类型:float16、float32、float64、int32、orint64.
  • seed:一个 Python 整数.用于为分布创建一个随机种子.查看 tf.set_random_seed 行为.
  • name:操作的名称(可选).

返回:

用于填充随机均匀值的指定形状的张量.

可能引发的异常:

  • ValueError:如果 dtype 是整数并且 maxval 没有被指定.

tf.random_uniform((5, 5), minval=low,maxval=high,dtype=tf.float32)))返回5*5的矩阵,产生于low和high之间,产生的值是均匀分布的。

例如:

import tensorflow as tf
import numpy as np
 
with tf.Session() as sess:
    print(sess.run(tf.random_uniform(
        (5, 5), 
        minval=-0.5,
        maxval=0.5,
        dtype=tf.float32)
    ))

输出:

[[ 0.46857    -0.3225485  -0.42753696  0.03466403  0.2262932 ]
 [-0.19730973  0.1903888  -0.256971   -0.30444872 -0.38620877]
 [ 0.18841648  0.32254386 -0.06783628 -0.4430343   0.03928614]
 [-0.09229898  0.10692096  0.33453715  0.2878989   0.4574163 ]
 [-0.35152197 -0.23256576  0.09216309 -0.17944324 -0.11373937]]

tf.truncated_normal

tf.truncated_normal(shape, mean=0.0, stddev=1.0, dtype=tf.float32, seed=None, name=None)

从截断的正态分布中输出随机值。

生成的值服从具有指定平均值和标准偏差的正态分布,如果生成的值大于平均值2个标准偏差的值则丢弃重新选择。

在正态分布的曲线中,横轴区间(μ-σ,μ+σ)内的面积为68.268949%。 横轴区间(μ-2σ,μ+2σ)内的面积为95.449974%。 横轴区间(μ-3σ,μ+3σ)内的面积为99.730020%。 X落在(μ-3σ,μ+3σ)以外的概率小于千分之三,在实际问题中常认为相应的事件是不会发生的,基本上可以把区间(μ-3σ,μ+3σ)看作是随机变量X实际可能的取值区间,这称之为正态分布的“3σ”原则。

在tf.truncated_normal中如果x的取值在区间(μ-2σ,μ+2σ)之外则重新进行选择。这样保证了生成的值都在均值附近。

参数:

  • shape: 一维的张量,也是输出的张量。
  • mean: 正态分布的均值。
  • stddev: 正态分布的标准差。
  • dtype: 输出的类型。
  • seed: 一个整数,当设置之后,每次生成的随机数都一样。
  • name: 操作的名字。

代码

a = tf.Variable(tf.random_normal([2,2],seed=1))
b = tf.Variable(tf.truncated_normal([2,2],seed=2))
c = tf.truncated_normal(shape=[10,10], mean=0, stddev=1) 
init = tf.global_variables_initializer()
with tf.Session() as sess:
    sess.run(init)
    print(sess.run(a))
    print(sess.run(b))
    print(sess.run(c))

输出:
[[-0.81131822  1.48459876]
 [ 0.06532937 -2.44270396]]

[[-0.85811085 -0.19662298]
 [ 0.13895047 -1.22127688]]

[[ 1.95758033 -0.68666345 -1.83860338 0.78213859 -1.08119416 -1.44530308
0.38035342 0.57904619 -0.57145643 -1.22899497]
[-0.75853795 0.48202974 1.03464043 1.19210851 -0.15739718 0.8506189
1.18259966 -0.99061841 -0.51968449 1.38996458]
[ 1.05636907 -0.02668529 0.64182931 0.4110294 -0.4978295 -0.64912242
1.27779591 -0.01533993 0.47417602 -1.28639436]
[-1.65927458 -0.364887 -0.45535028 0.078814 -0.30295736 1.91779387
-0.66928798 -0.14847915 0.91875714 0.61889237]
[-0.01308221 -0.38468206 1.34700036 0.64531708 1.15899456 1.09932268
1.22457981 -1.1610316 0.59036094 -1.97302651]
[-0.24886213 0.82857937 0.09046989 0.39251322 0.21155456 -0.27749416
0.18883201 0.08812679 -0.32917103 0.20547724]
[ 0.05388507 0.45474565 0.23398806 1.32670367 -0.01957406 0.52013856
-1.13907862 -1.71957874 0.75772947 -1.01719368]
[ 0.27155915 0.05900437 0.81448066 -0.37997526 -0.62020499 -0.88820189
1.53407145 -0.01600445 -0.4236775 -1.68852305]
[ 0.78942037 -1.32458341 -0.91667277 -0.00963761 0.76824385 -0.5405798
-0.73307443 -1.19854116 -0.66179073 0.26329204]
[ 0.59473759 -0.37507254 -1.21623695 -1.30528259 1.18013096 -1.32077384
-0.59241474 -0.28063133 0.12341146 0.48480138]]

指定seed之后,a的值不变,b的值也不变。

参考:https://blog.csdn.net/uestc_c2_403/article/details/72233523 https://www.w3cschool.cn/tensorflow_python/tensorflow_python-rnix2gv7.html https://blog.csdn.net/u013713117/article/details/65446361/

本文参与腾讯云自媒体分享计划,欢迎正在阅读的你也加入,一起分享。

我来说两句

0 条评论
登录 后参与评论

相关文章

  • tf.cast()

    参考:https://www.cnblogs.com/hezhiyao/p/8196587.html

    周小董
  • Tensorflow模型保存和读取tf.train.Saver

    然后,在训练循环中,定期调用 saver.save() 方法,向文件夹中写入包含了当前模型中所有可训练变量的 checkpoint 文件。

    周小董
  • tf.Variable()函数

    tf.Variable(initializer,name),参数initializer是初始化参数,name是可自定义的变量名称,用法如下:

    周小董
  • 高并发文章浏览量计数系统设计

    https://juejin.im/post/5c3aa3c86fb9a04a0e2d6c9f

    搜云库技术团队
  • 跻身数据科学领域的五条职业规划道路

    大数据文摘
  • 解析 :跻身数据科学领域的五条职业规划道路

    原文链接:http://www.kdnuggets.com/2017/02/5-career-paths-data-science-big-data-expla...

    小莹莹
  • Ceph配置参数(一)

    本篇博文转载于http://blog.csdn.net/uj_mosquito/article/details/41827373?utm_source=tuic...

    DevinGeng
  • Introduce myself

    Good morning,dear professors.My name is Sun ZhaoLi.I am 23 years old.And I come ...

    用户6964327
  • 黑客的价值观The Hacker’s Code

    黑客,可能在大家的眼里是那些入侵别人计算机搞破坏的人,其实并不是那样的。如果你这样认为了,只能说明你对计算机文化并不了解,真正的黑客是一种 自由的象征,他们挑战...

    一个会写诗的程序员
  • python 计算函数执行时间装饰器(装饰器写法)

    import time import functools def clock(func): @functools.wraps(func) def clo...

    用户5760343

扫码关注云+社区

领取腾讯云代金券