tf1.基础结构

Tensorflow 是谷歌开发的深度学习系统,用它可以很快速地入门神经网络。
它可以做分类,也可以做拟合问题,就是要把这个模式给模拟出来。


这是一个基本的神经网络的结构,有输入层,隐藏层,和输出层。
每一层点开都有它相应的内容,函数和功能。

那我们要做的就是要建立一个这样的结构,然后把数据喂进去。
把数据放进去后它就可以自己运行,TensorFlow 翻译过来就是向量在里面飞。



这个动图的解释就是,在输入层输入数据,然后数据飞到隐藏层飞到输出层,用梯度下降处理,梯度下降会对几个参数进行更新和完善,更新后的参数再次跑到隐藏层去学习,这样一直循环直到结果收敛。

因为TensorFlow是采用数据流图(data flow graphs)来计算, 所以首先我们得创建一个数据流流图, 然后再将我们的数据(数据以张量(tensor)的形式存在)放在数据流图中计算. 节点(Nodes)在图中表示数学操作,图中的线(edges)则表示在节点间相互联系的多维数据数组, 即张量(tensor). 训练模型时tensor会不断的从数据流图中的一个节点flow到另一节点, 这就是TensorFlow名字的由来.

张量(tensor):

张量有多种. 零阶张量为 纯量或标量 (scalar) 也就是一个数值. 比如 [1]
一阶张量为 向量 (vector), 比如 一维的 [1, 2, 3]
二阶张量为 矩阵 (matrix), 比如 二维的 [[1, 2, 3],[4, 5, 6],[7, 8, 9]]
以此类推, 还有 三阶 三维的 …

简单线性预测例子

import sys
print(sys.version)
'''
3.5.3 |Continuum Analytics, Inc.| (default, May 15 2017, 10:43:23) [MSC v.1900 64 bit (AMD64)]
'''
import tensorflow as tf
import numpy as np

# shape=tuple ,size=100
x_data = np.random.rand(100).astype(np.float32)
y_data = x_data*0.1 + 0.3 #实际值

Weights = tf.Variable(tf.random_uniform([1], -1.0, 1.0))#[1],一个数,范围从-1.0到1.0
biases = tf.Variable(tf.zeros([1]))#初始值0

y = Weights*x_data + biases#框架
loss = tf.reduce_mean(tf.square(y-y_data))#定义误差(square平方)
#梯度下降法
optimizer = tf.train.GradientDescentOptimizer(0.5)
train = optimizer.minimize(loss)
# init = tf.initialize_all_variables() # tf 马上就要废弃这种写法
init = tf.global_variables_initializer()  # 替换成这样就好
sess = tf.Session()
sess.run(init)          # Very important
for step in range(201):#训练200次
    sess.run(train)
    if step % 20 == 0:
        print(step, sess.run(Weights), sess.run(biases))#越来越接近真实w和b

输出

0 [-0.01233229] [ 0.479366]
20 [ 0.04969411] [ 0.32581243]
40 [ 0.08435673] [ 0.30802673]
60 [ 0.09513554] [ 0.30249602]
80 [ 0.09848735] [ 0.30077615]
100 [ 0.09952962] [ 0.30024135]
120 [ 0.09985375] [ 0.30007505]
140 [ 0.09995452] [ 0.30002335]
160 [ 0.09998586] [ 0.30000728]
180 [ 0.09999558] [ 0.30000228]
200 [ 0.09999862] [ 0.30000073]
最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

推荐阅读更多精彩内容

  • 文|墨默 2016年的366个日子, 又累积了366天回忆。 在这2016年第366天, 即将尘封2016的史卷。...
    墨默天地阅读 182评论 0 6
  • 常见的数据校验方法 http://blog.csdn.net/ky_heart/article/details/5...
    用电热毯烤猪阅读 7,463评论 0 49
  • 我来自皖南农村。 割稻插秧砍田埂,采茶喂猪耙刺毛……只要你能想到的农村事,基本都干过。 初中每周五天只带一次菜,两...
    丁晓贤阅读 1,228评论 0 0
  • AAC结构图: 1.ADTS_header:ADTS包含着音频的基本信息:采样率、声道数、帧长度......ADT...
    孙健会员阅读 1,660评论 0 0
  • 想找个地方记录下我的变化,看到群里小伙伴在使用,我今天也下载了简书,文笔不好,仅以此来记录下今年的改变
    雨下云阅读 129评论 0 0