tensorflow接口研读constant_op

constant_op函数使用,分为生成常量,序列以及随机值。随机种子在文末介绍使用方法。

2.1 tf.zeros(shape, dtype=tf.float32, name=None)
功能:生成一个值全为0的tensor。默认为float32类型。
输入:shape:一维的int32型的列表。
例:
a=tf.zeros([2,3])

a==>[[0. 0. 0.]
     [0. 0. 0.]]
2.2 tf.zeros_like(tensor, dtype=None, name=None, optimize=True)
功能:生成一个值全为0的tensor,其形状与输入tensor相同。
输入:dtype:未指定时返回tesnsor的类型
例:
x=tf.constant([1,2,3,4,5,6],shape=[2,3])
a=tf.zeros_like(x)

a==>[[0. 0. 0.]
     [0. 0. 0.]]
2.3 tf.ones(shape, dtype=tf.float32, name=None)
功能:生成一个值全为1的tensor。默认为float32类型。
输入:shape:一维的int32型的列表。
例:
a=tf.ones([2,3]])

a==>[[1. 1. 1.]
     [1. 1. 1.]]
2.4 tf.ones_like(tensor, dtype=None, name=None, optimize=True)
功能:生成一个值全为1的tensor,其形状与输入tensor相同。
输入:dtype:未指定时返回tesnsor的类型
例:
x=tf.constant([1,2,3,4,5,6],shape=[2,3])
a=tf.ones_like(x)

a==>[[1. 1. 1.]
     [1. 1. 1.]]
2.5 tf.fill(dims, value, name=None)
功能:生成一个值全为value的tensor,其形状与dims相同。
输入:dims:一维的int32型的列表,
例:
a=tf.fill([2,3],7)

a==>[[7. 7. 7.]
     [7. 7. 7.]]
2.6 tf.constant(value, dtype=None, shape=None, name='Const', verify_shape=False)
功能:生成一个常量tensor
输入:value:一个常量,或者一个list;
     dtype:数据类型;
     shape:生成形状。
例:
a=tf.constant([1,2,3,4,5,6],shape=[2,3])
b=tf.constant(2,shape=[2,3])

a==>[[1 2 3]
     [4 5 6]]
b==>[[2 2 2]
     [2 2 2]]
2.7 tf.linspace(start, stop, num, name=None)
功能:生成在区间[start,stop]中定长间隔的值。序列值的间隔大小为‘(stop-start)/(num-1)’
输入:start:区间起始值,类型为float32或float64;
     stop:区间中止值,类型为float32或float64;
     num:生成数据数量。
例:
a=tf.linspace(1.,7.,4)

a==>[1. 3. 5. 7.]
2.8 tf.range(start, limit=None, delta=1, dtype=None, name='range')
功能:生成一个序列值,从start开始,每次递增delta,直到不超过limit的值结束。
输入:start:起始值;
     limit:限制值,不能超过;
     delta:步长。
例:
a=tf.range(1,10,3)

a==>[1 4 7]
2.9 tf.random_normal(shape, mean=0.0, stddev=1.0, dtype=tf.float32, seed=None, name=None)
功能:从正太分布中随机输出。
输入:shape:一维整型tensor,指定tensor的形状;
     mean:正太分布的平均值,默认为0;
     stddev:正太分布的标准差,默认为1;
     seed:随机种子。
例:
a=tf.random_normal([2,2],seed=112)

a==>[[-0.72891599 -1.35909426]
     [ 0.06045228  1.12680387]]
2.10 tf.truncated_normal(shape, mean=0.0, stddev=1.0, dtype=tf.float32, seed=None, name=None)
功能:从截断正太分布中随机输出。
输入:shape:一维整型tensor,指定tensor的形状;
     mean:正太分布的平均值,默认为0;
     stddev:正太分布的标准差,默认为1;
     seed:随机种子。
例:
a=tf.truncated_normal([2,2],seed=112)

a==>[[-0.72891599 -1.35909426]
     [ 0.06045228  1.12680387]]
2.11 tf.random_uniform(shape, minval=0, maxval=None, dtype=tf.float32, seed=None, name=None)
功能:从均匀分布中随机输出,默认区域为‘[0,1)’。
输入:shape:一维整型tensor,指定tensor的形状;
     minval:均匀分布的最小值,默认为0;
     maxval:均匀分布的最大值,如果类型为float32则默认为1;
     seed:随机种子。
例:
a=tf.random_uniform([2,2],seed=112)

a==>[[0.30445623 0.57834935]
     [0.52905083 0.00853038]]
2.12 tf.random_shuffle(value, seed=None, name=None)
功能:将tensor第一个维度的数据重新随机排列。
输入:value:tensor。
    seed:随机种子。
例:
x=tf.constant([1,2,3,4,5,6],shape=[3,2])
a=tf.random_shuffle(x,seed=11)

a==>[[5 6]
     [3 4]
     [1 2]]
2.13 tf.random_crop(value, size, seed=None, name=None)
功能:将tensor按照指定大小进行随机裁剪。
输入:value:tensor;
    size:裁剪后的大小,size<=value.shape,如果不想改变大小,应配置为value的shape。
例:
x=tf.constant([1,2,3,4,5,6,7,8,9],shape=[3,3])
a=tf.random_crop(x,size=[2,2],seed=11)

a==>[[2 3]
     [5 6]]
2.14 tf.multinomial(logits, num_samples, seed=None, name=None)
功能:绘制多项式分布。
输入:logits:shape为[batch_size,num_classes]的2维tensor,每行[i,:]代表每类出现的概率。 
     num_samples:独立采样数目。
例:
x=tf.constant([[1,1,1]],dtype=tf.float32)#表示有3类,出现概率相等。
a = tf.multinomial(x, 10)

a==>[[0 0 2 1 2 1 2 0 0 1]]
2.15 tf.random_gamma(shape, alpha, beta=None, dtype=tf.float32, seed=None, name=None)
功能:对每一个给定的gamma分布进行shape尺度的采样。
     例如samples = tf.random_gamma([30], [[1.],[3.],[5.]], beta=[[3., 4.]])
      即给定了6个gamma分布,每个分布输出30个数据,输出tensor形状为[30,3,2]。
输入:shape:每一个gamma分布进行采样的尺度;
     alpha: gamma分布的alpha变量,可以为任意尺度,但需和beta对应;
     beta:gamma分布的beta变量。
例:
a = tf.random_gamma([2], [0.5, 1.5])#每一片应为[:,0],[:,1]

a==>[[3.03589034e+00 2.56953764e+00]
     [2.959940042e-03 3.52107930e+00]]
2.16 tf.set_random_seed(seed)
功能:设置随机数种子。
     为确保每次随机数生成数据一致,可以设置随机数种子。随机种子有两种设置方法:
         1、op级别的设置,如前文提高的随机输入tf.random_shuffle(value, seed=None, name=None)中,
          函数变量seed即设置种子值。
         2、graph级别,即tf.set_random_seed(seed)函数,可使整个graph的随机数产生从设置种子中获取。
例:
    1、未设置种子
     a=tf.random_uniform([1])
     b=tf.random_normal([1])
     print("Session 1")
     with tf.Session() as sess1:
         tf.global_variables_initializer().run()
         print sess1.run(a)
         print sess1.run(a)
         print sess1.run(b)
         print sess1.run(b)
     print("Session 2")
     with tf.Session() as sess2:
         tf.global_variables_initializer().run()
         print sess2.run(a)
         print sess2.run(a)
         print sess2.run(b)
         print sess2.run(b)
    运行结果为:
      Session 1
      [ 0.71059418]
      [ 0.71678996]
      [ 0.27808592]
      [ 0.77504641]
      Session 2
      [ 0.45193291]
      [ 0.74479854]
      [-0.01035937]
      [ 0.54787332]
      因没有设置随机种子,每次运行结果都不一样
    2、设置op级别种子
     a=tf.random_uniform([1],seed=1)
     b=tf.random_normal([1])
     print("Session 1")
     with tf.Session() as sess1:
         tf.global_variables_initializer().run()
         print sess1.run(a)
         print sess1.run(a)
         print sess1.run(b)
         print sess1.run(b)
     print("Session 2")
     with tf.Session() as sess2:
         tf.global_variables_initializer().run()
         print sess2.run(a)
         print sess2.run(a)
         print sess2.run(b)
         print sess2.run(b)
    运行结果为:
      Session 1
      [ 0.23903739]
      [ 0.22267115]
      [-0.48983803]
      [-0.13116723]
      Session 2
      [ 0.23903739]
      [ 0.22267115]
      [-1.77008951]
      [-0.18568291]
      变量a设置为种子1,每次运行按照种子进行取数,每个Session都从种子的第一个数开始取值。
    3、设置graph级别种子
     tf.set_random_seed(1)
     a=tf.random_uniform([1])
     b=tf.random_normal([1])
     print("Session 1")
     with tf.Session() as sess1:
         tf.global_variables_initializer().run()
         print sess1.run(a)
         print sess1.run(a)
         print sess1.run(b)
         print sess1.run(b)
     print("Session 2")
     with tf.Session() as sess2:
         tf.global_variables_initializer().run()
         print sess2.run(a)
         print sess2.run(a)
         print sess2.run(b)
         print sess2.run(b)
    运行结果为:
      Session 1
      [ 0.77878559]
      [ 0.0978868]
      [-0.4487586]
      [-0.82540691]
      Session 2
      [ 0.77878559]
      [ 0.0978868]
      [-0.4487586]
      [-0.82540691]
      设置graph级种子后,两次运行结果完全一致。
最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

推荐阅读更多精彩内容