tensorflow 创建CNN神经网络

通过几天的学习终于将CNN给克服了,有收获会在程序注释中体现。简单介绍介绍下创建的神经网络,由  卷积层 ,池化层 ,卷积层 ,池化层,全连接层,分类层构成。

有几点要注意:

第一,在CNN中通常采用RELU作为激励函数,将线性的变成非线性的。

第二,优化器的选择,一般选用AdamOptimizer,不用梯度下降法,梯度下降一般用在较为简单的数据上。

第三,卷积和池化所需的数据应该为3维数据,全连接所需数据为1维数据。

第四,为了防止过拟合引入,tf.nn.dropout()用在全连接层。Dropout就是在不同的训练过程中随机扔掉一部分神经元。也就是让某个神经元的激活值以一定的概率p,让其停止工作,这次训练过程中不更新权值,也不参加神经网络的计算。但是它的权重得保留下来(只是暂时不更新而已),因为下次样本输入时它可能又得工作了。训练过程需要用到dropout,在测试中不需要用到反而应当将所有的神经元用上。


import tensorflow as tf

from tensorflow.examples.tutorials.mnist import input_data

mnist=input_data.read_data_sets('MNIST_data',one_hot=True)

#创建一个神经层

import numpy as np

def add_layer(inputs,in_size,out_size,activation_function=None):

    #这里激励函数默认为0,则可认为激励函数为线性

    Weights=tf.Variable(tf.random_normal([in_size,out_size]))

    biases=tf.Variable(tf.zeros([1,out_size]))+0.1

    Wx_plus_b=tf.matmul(inputs,Weights)+biases

    #还未被激活的值被赋予在Wx_plus_b中,下一步是去激活他

    if activation_function is None:

        outputs=Wx_plus_b

        #说明outputs是一个线性方程,不需要去activation_function.

        #使用activation_funtion将一个线性的函数变换成一个非线性的函数

    else:

    outputs=activation_function(Wx_plus_b)

    return outputs

def compute_accuracy(v_xs,v_ys):

    global prediction

    y_pre=sess.run(prediction,feed_dict={xs:v_xs})

    correct_prediction=tf.equal(tf.argmax(y_pre,1),tf.argmax(v_ys,1))#tf.argmax()对矩阵按行或按列计算最大值所在位置,0表示按列,1表示按行

    accuracy=tf.reduce_mean(tf.cast(correct_prediction,tf.float32))

    #tf.cast(),是类型转换函数,转换成float32类型

    result=sess.run(accuracy)

    return result

#用于初始化所有的权值w

def weight_variable(shape):

    intial=tf.truncated_normal(shape,stddev=0.1)

    #tf.truncated_normal(shape, mean, stddev) :shape表示生成张量的维度,mean是均值,stddev是标准差。

    return tf.Variable(initial)

#用于初始化所有的偏置项

def bias_variable(shape):

    initial=tf.constant(0.1,shape=shape)

    return tf.Variable(initial)

#用于构建卷积层

def conv2d(x,W):

    #stride[1,x_movement,y_movement,1]

    return tf.nn.conv2d(x,W,strides=[1,1,1,1],padding='SAME')

#用于构建池化层

def max_pool_2x2(x):

    #池化窗口的大小,取一个四维向量,一般是[1, height, width, 1],因为我们不想在batch和channels上做池化,所以这两个维度设为了1

    return tf.nn.max_pool(x,ksize=[1,2,2,1],strides=[1,2,2,1],padding='SAME')

#defind placeholder for inputs to network

    xs=tf.placeholder(tf.float32,[None,784])#28*28

    ys=tf.placeholder(tf.float32,[None,10])

    keep_prob=tf.placeholder(tf.float32)


    x_image=tf.reshape(xs,[-1,28,28,1])

    #理解一下[-1,28,28,1],-1含义我们不用去管这个维度的大小,reshape会自动计算。可以理解为导入数据的多少张图片。28,28长和宽,1表示图像时黑白的,若是彩色图像就该改变为3

    print(x_image.shape)#[n_sample,28,28,1]


##conv1 layer#

  W_conv1=weight_variable([5,5,1,32])#patch 5*5,insize=1,outsize=32  实在不理解就把输入的图像厚度为1,输出的为32

  b_conv1=bias_variable([32])

  h_conv1=tf.nn.relu(conv2d(x_image,W_conv1)+b_conv1)#output size 28*28*32

  h_pool1=max_pool_2x2(h_conv1)        #output size 14*14*32

##conv2 layer##

    W_conv2=weight_variable([5,5,32,64])#patch 5*5,insize=32,outsize=64  实在不理解就把输入的图像厚度为1,输出的为32

  b_conv2=bias_variable([64])

  h_conv2=tf.nn.relu(conv2d(h_pool1,W_conv2)+b_conv2)#output size 14*14*64

  h_pool2=max_pool_2x2(h_conv2)        #output size 7*7*64

##func1 layer##

  W_fc1=weight_variable([7*7*64,1024])

  b_fc1=bias_variable([1024])

  #卷积和池需要时3维数据,全连接需要1维数据

  #[n_samples,7,7,64]转换成[n_samples,7*7*64]

  h_pool2_flat=tf.reshape(h_pool2,[-1,7*7*64])

  h_fc1=tf.nn.relu(tf.matmul(h_pool2_flat,W_fc1)+b_fc1)

  #防止over fiting

  h_fc1_drop=tf.nn.dropout(h_fc1,keep_prob)

##func2 layer##


  W_fc2=weight_variable([1024,10])

  b_fc2=bias_variable([10])

  #卷积和池需要时3维数据,全连接需要1维数据


  predicition=tf.nn.softmax(tf.matmul(h_fc1_drop,W_fc2)+b_fc2)


#the error between prediction and real data

cross_entropy=tf.reduce_mean(-tf.reduce_sum(ys*tf.log(prediction)),reducition_indices=[1]))

#交叉熵

train_step=tf.train.AdamOptimizer(1e-4).minimize(cross_entropy)

init=tf.initialize_all_variables()

with tf.Session() as sess:

    sess.run(init)

for i in range(1000):

    batch_xs,batch_ys=mnist.train.next_batch(100)#随机选取100组数据进行训练

    sess.run(train_step,feed_dict={xs:batch_xs,ys:batch_ys},keep_prob:0.5)

    if i%50==0:

        print(compute_accuracy(mnist.test.images,mnist.test.labels))

©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 216,744评论 6 502
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 92,505评论 3 392
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 163,105评论 0 353
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 58,242评论 1 292
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 67,269评论 6 389
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 51,215评论 1 299
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 40,096评论 3 418
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 38,939评论 0 274
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 45,354评论 1 311
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 37,573评论 2 333
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 39,745评论 1 348
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 35,448评论 5 344
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 41,048评论 3 327
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 31,683评论 0 22
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 32,838评论 1 269
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 47,776评论 2 369
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 44,652评论 2 354

推荐阅读更多精彩内容