Tensorflow函数详解

tensorflow数据类型tf.Dtype

官方API

tf.constant(),声明一个常量

constant(
    value,
    dtype=None,
    shape=None,
    name='Const',
    verify_shape=False
)
heads = tf.constant([0, 1, 3, 4, 5], dtype=tf.int64)

tf.one_hot(),生成一组以one_hot方式表示的tensor

one_hot(
    indices,
    depth,
    on_value=None,
    off_value=None,
    axis=None,
    dtype=None,
    name=None
)
heads = tf.constant([0, 1, 3, 4, 5], dtype=tf.int64)
num_entities = 5
one_hot = tf.one_hot(indices=heads, depth=num_entities)
  • 为防止出错,depth与indices中的数据的数量应当一致。

tf.nn.embedding_lookup()

tf.nn.embedding_lookup

embedding_lookup(
    params,
    ids,
    partition_strategy='mod',
    name=None,
    validate_indices=True,
    max_norm=None
)
  • 在只考虑前两个参数,后面参数默认的情况下,params是指embedding表,ids指的是要进行embedding的tensor,举例如下:
import tensorflow as tf
import numpy as np


def _random_uniform_unit(r, c):
    """ Initialize random and unit row norm matrix of size (r, c). """
    bound = 6. / np.sqrt(c)
    init_matrix = np.random.uniform(-bound, bound, (r, c))
    init_matrix = np.array(list(map(lambda row: row / np.linalg.norm(row), init_matrix)))
    return init_matrix


queries = np.random.randint(0, 10, size=[5, 3])
query_embedding = _random_uniform_unit(10, 2)

print("queries\n{}".format(queries))
print("query_embedding\n{}".format(query_embedding))

inputs = tf.nn.embedding_lookup(query_embedding, queries)

sess = tf.Session()
print("inputs")
print(sess.run(inputs))
  • queries.shape = [5,3]
[[3 7 1]
 [4 3 3]
 [6 3 2]
 [3 3 0]
 [0 1 2]]
  • query_embedding.shape = [10,2]
[[ 0.90292864  0.42979049]
 [-0.60955742 -0.79274192]
 [-0.16401362  0.98645807]
 [-0.0341987   0.99941505]
 [-0.67351797  0.73917085]
 [-0.33204653  0.94326301]
 [-0.99956043  0.0296472 ]
 [ 0.56861586  0.82260319]
 [ 0.88163565 -0.47193069]
 [-0.35534625 -0.93473474]]
  • inputs.shape = [5,3,2]
[[[-0.0341987   0.99941505]
  [ 0.56861586  0.82260319]
  [-0.60955742 -0.79274192]]

 [[-0.67351797  0.73917085]
  [-0.0341987   0.99941505]
  [-0.0341987   0.99941505]]

 [[-0.99956043  0.0296472 ]
  [-0.0341987   0.99941505]
  [-0.16401362  0.98645807]]

 [[-0.0341987   0.99941505]
  [-0.0341987   0.99941505]
  [ 0.90292864  0.42979049]]

 [[ 0.90292864  0.42979049]
  [-0.60955742 -0.79274192]
  [-0.16401362  0.98645807]]]

tf.split()

split(
    value,
    num_or_size_splits,
    axis=0,
    num=None,
    name='split'
)
  • 考虑前3个参数,后面两个默认
    将value在第axis上分成num_or_size_splits个,举例如下:
  • 例子1
matrix = np.random.randint(0, 5, size=[5, 8])
#默认axis=0
split0, split1 = tf.split(matrix, [2, 3]) 
sess = tf.Session()
print(matrix)
print(sess.run(split0)) #shape=[2,8]
print(sess.run(split1)) #shape=[3,8]
  • matrix
[[0 0 1 0 1 2 1 0]
 [3 2 2 2 4 1 2 4]
 [3 4 3 1 0 0 0 3]
 [0 1 2 0 3 1 0 4]
 [4 1 0 0 4 4 1 0]]
  • split0
[[0 0 1 0 1 2 1 0]
 [3 2 2 2 4 1 2 4]]
  • split1
[[3 4 3 1 0 0 0 3]
 [0 1 2 0 3 1 0 4]
 [4 1 0 0 4 4 1 0]]
  • 例子2
matrix = np.random.randint(0, 5, size=[5, 4, 8])
print(matrix)
split0, split1 = tf.split(matrix, 2, axis=1)
sess = tf.Session()
print(sess.run(split0))
print(sess.run(split1))
  • matrix
[[[1 3 3 0 1 3 3 1]
  [0 2 3 3 0 4 1 3]
  [3 4 3 0 3 0 0 2]
  [1 3 0 0 0 1 1 0]]

 [[4 2 3 0 1 2 3 0]
  [0 0 3 3 2 0 3 1]
  [3 3 1 1 4 1 4 4]
  [0 4 4 0 0 0 0 0]]

 [[4 1 0 1 4 1 1 2]
  [0 2 3 4 0 3 3 3]
  [1 4 1 4 2 0 3 1]
  [4 1 1 4 3 3 4 4]]

 [[3 3 3 4 0 2 2 1]
  [1 0 2 1 3 0 4 4]
  [4 4 1 1 2 0 4 0]
  [4 1 2 0 1 2 4 3]]

 [[2 1 2 1 3 4 1 4]
  [4 2 4 1 4 3 4 3]
  [3 2 2 0 1 2 2 1]
  [2 0 2 4 2 0 0 4]]]
  • split0
[[[1 3 3 0 1 3 3 1]
  [0 2 3 3 0 4 1 3]]

 [[4 2 3 0 1 2 3 0]
  [0 0 3 3 2 0 3 1]]

 [[4 1 0 1 4 1 1 2]
  [0 2 3 4 0 3 3 3]]

 [[3 3 3 4 0 2 2 1]
  [1 0 2 1 3 0 4 4]]

 [[2 1 2 1 3 4 1 4]
  [4 2 4 1 4 3 4 3]]]
  • split1
[[[3 4 3 0 3 0 0 2]
  [1 3 0 0 0 1 1 0]]

 [[3 3 1 1 4 1 4 4]
  [0 4 4 0 0 0 0 0]]

 [[1 4 1 4 2 0 3 1]
  [4 1 1 4 3 3 4 4]]

 [[4 4 1 1 2 0 4 0]
  [4 1 2 0 1 2 4 3]]

 [[3 2 2 0 1 2 2 1]
  [2 0 2 4 2 0 0 4]]]

tf.reshape()

tf.concat()

concat(
    values,
    axis,
    name='concat'
)

例子:

t1 = [[1, 2, 3], [4, 5, 6]]
t2 = [[7, 8, 9], [10, 11, 12]]
tf.concat([t1, t2], 0)  # [[1, 2, 3], [4, 5, 6], [7, 8, 9], [10, 11, 12]]
tf.concat([t1, t2], 1)  # [[1, 2, 3, 7, 8, 9], [4, 5, 6, 10, 11, 12]]

# tensor t3 with shape [2, 3]
# tensor t4 with shape [2, 3]
tf.shape(tf.concat([t3, t4], 0))  # [4, 3]
tf.shape(tf.concat([t3, t4], 1))  # [2, 6]

tf.truncated_normal()

truncated_normal(
    shape,
    mean=0.0,
    stddev=1.0,
    dtype=tf.float32,
    seed=None,
    name=None
)
  • 生成一个tuple,tuple.shape = shape。
  • 取值是以mean为均值,stddev(standard deviation)为标准差的正态分布,且随机取值。
matrix = tf.truncated_normal([5, 5], mean=0.5, stddev=0.1)
sess = tf.Session()
print(sess.run(matrix))

[[ 0.45370424  0.48200235  0.4999696   0.4151116   0.41560024]
 [ 0.43999606  0.5398522   0.42844459  0.58125985  0.54634178]
 [ 0.66550612  0.56114542  0.42937878  0.50703061  0.45166823]
 [ 0.69100404  0.57875633  0.41092399  0.56445539  0.41516542]
 [ 0.66599876  0.65357423  0.53620756  0.42988184  0.57689136]]

tf.shape()

shape(
    input,
    name=None,
    out_type=tf.int32
)
  • 求一个tensor的shape
t = tf.constant([[[1, 1, 1], [2, 2, 2]], [[3, 3, 3], [4, 4, 4]]])
tf.shape(t)  # [2, 2, 3]

tf.expand_dims()

expand_dims(
    input,
    axis=None,
    name=None,
    dim=None
)
  • 在指定的axis上扩充1维
  • 举例:
# 't' is a tensor of shape [2]
tf.shape(tf.expand_dims(t, 0))  # [1, 2]
tf.shape(tf.expand_dims(t, 1))  # [2, 1]
tf.shape(tf.expand_dims(t, -1))  # [2, 1]

# 't2' is a tensor of shape [2, 3, 5]
tf.shape(tf.expand_dims(t2, 0))  # [1, 2, 3, 5]
tf.shape(tf.expand_dims(t2, 2))  # [2, 3, 1, 5]
tf.shape(tf.expand_dims(t2, 3))  # [2, 3, 5, 1]

tf.stack()

stack(
    values,
    axis=0,
    name='stack'
)
  • 参考博客
  • numpy文档 numpy的stack()和tensorflow的stack()功能完全相同。
  • 这个函数困扰了我很久,但其实相通之后原理非常简单,先举一个例子,然后通过对这个例子的分析来理解这个函数。
  • 例子:
a=[[1,2,3],
   [4,5,6]]
b=[[1,2,3],
   [4,5,6]]
c=[[1,2,3],
   [4,5,6]]
#这里也可以用np.stack((a,b,c),axis=2)
d=tf.stack((a,b,c),axis=2)

print(d)

#d
[[[1 1 1]
  [2 2 2]
  [3 3 3]]

 [[4 4 4]
  [5 5 5]
  [6 6 6]]]
  • 首先,在这个函数中,第一个参数values并不是进行变换的基本单位,以例子为例,values是a,b,c的组合,但变换的基本单位是a、b和c,这三个tensor的shape必须是一致的。
  • 然后就可以理解结果的维度变化,比如a的维度是(A,B),stack()函数的axis=0时,结果维度为(?,A,B);axis=1时,结果维度为(A,?,B);axis=2时,结果维度为(A,B,?)。
  • 然后就是各个个体(这里就是a,b和c)相对应位置的组合。

tf.squeeze()

squeeze(
    input,
    axis=None,
    name=None,
    squeeze_dims=None
)
  • example
# 't' is a tensor of shape [1, 2, 1, 3, 1, 1]
tf.shape(tf.squeeze(t))  # [2, 3]

# 't' is a tensor of shape [1, 2, 1, 3, 1, 1]
tf.shape(tf.squeeze(t, [2, 4]))  # [1, 2, 3, 1]

SparseTensorValue(indices, values, dense_shape)

  • 参考链接
  • 生成一个稀疏张量,shape=dense_shape。
  • 稀疏的意思是这个张量里面0很多,不是0的数(比如1)比0少的多。
  • dense_shape说明了要生成的稀疏张量的维数。
  • indices代表了所生成稀疏张量中不是0的数的位置。
  • values中的值与indices的值一一对应,代表了不是0的数的值。
  • 举例:
tf.SparseTensorValue(

    indices=[[4, 1], [1, 2]], 

    values=tf.constant([1, 2]), 

    dense_shape=[5, 5]
)
  • a为:
[[ 0.,  0.,  0.,  0.,  0.],
 [ 0.,  0.,  1.,  0.,  0.],
 [ 0.,  0.,  0.,  0.,  0.],
 [ 0.,  0.,  0.,  0.,  0.],
 [ 0.,  1.,  0.,  0.,  0.]]
最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 225,226评论 6 524
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 96,509评论 3 405
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 172,523评论 0 370
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 61,181评论 1 302
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 70,189评论 6 401
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 53,642评论 1 316
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 41,993评论 3 431
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 40,977评论 0 280
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 47,527评论 1 326
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 39,547评论 3 347
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 41,661评论 1 355
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 37,250评论 5 351
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 42,991评论 3 340
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 33,422评论 0 25
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 34,571评论 1 277
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 50,241评论 3 382
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 46,737评论 2 366

推荐阅读更多精彩内容

  • 1. tf函数 tensorflow 封装的工具类函数 | 操作组 | 操作 ||:-------------| ...
    南墙已破阅读 5,161评论 0 5
  • TF API数学计算tf...... :math(1)刚开始先给一个运行实例。tf是基于图(Graph)的计算系统...
    MachineLP阅读 3,488评论 0 1
  • 简单线性回归 import tensorflow as tf import numpy # 创造数据 x_dat...
    CAICAI0阅读 3,553评论 0 49
  • 政府的话说了我,都四十了呢,还不会听出来。这是我书,和不足之处我应该接受并且改正 姐姐说你不要到时候又说忙的去干什...
    lygly9阅读 212评论 0 0
  • 在我们头上飘荡着的是亡灵 这是天空成为天空的原因 在我们脚下踩着的是白骨 这是大地成为大地的原因 而中间夹着的是灾...
    木言寺阅读 124评论 0 4