在神经网络的框架中,tensorflow比较基础,相对于pytorch等的,封装的比较少,但是更适合初学者理解神经网络结构和数据处理的逻辑过程,也能更直观的看到数据结构的变化。
CNN以其二维数据的处理能力,常用于计算机视觉;RNN以其时序维度中的前后关联特性,常用于自然语言处理。下面是一段Tensorflow卷积神经网络的逻辑代码,其中有部分代码是不完全或者有所省略的,基于此添加了一些分析理解。
# 输入数据 28*28*1 通道数(channel number)=1
# -------------- (1)第一个卷积层参数 --------------
# w_conv1:5*5是卷积核的大小,对应h*w;1是前一层连接的通道数;32是卷积核的数量=输出通道的数量;stddev是参数随机程度的标准差 。
# b_conv1:32同卷积核的数量,用于微调每一个特征图。
w_conv1 = tf.Variable(tf.truncated_normal([5,5,1,32], stddev=0.1))
b_conv1 = tf.Variable(tf.constant(0.1, shape=[32]))
# -------------- (2)第一个卷积层操作 --------------
# h常用于表示中间结果;strides是步长,分别对应[batch,h,w,channel];padding是边界填充效果。
# relu常用于激活卷积层和全连接层,不影响数据的尺寸。
# max_pool最大池化操作
h_conv1 = tf.nn.conv2d(input=x, fliter=w_conv1, strides=[1,1,1,1], padding='SAME')+b_conv1
h_conv1 = tf.nn.relu(h_conv1)
h_pool1 = tf.nn.max_pool(h_conv1, k_size=[1,2,2,1], strides=[1,2,2,1], padding='SAME')
# -------------- (3)第二个卷积层参数 --------------
w_conv2 = tf.Variable(tf.truncated_normal([5,5,32,64], stddev=0.1))
b_conv2 = tf.Variable(tf.constant(0.1, shape=[64]))
# -------------- (4)第二个卷积层操作 --------------
h_conv2 = tf.nn.conv2d(input=h_pool1, fliter=w_conv2, strides=[1,1,1,1], padding='SAME')+b_conv2
h_conv2 = tf.nn.relu(h_conv2)
h_pool2 = tf.nn.max_pool(h_conv2, k_size=[1,2,2,1], strides=[1,2,2,1], padding='SAME')
# 特征图不可以直接作分类、回归用,需要进行全连接操作
# -------------- (5)第一个全连接层参数 --------------
# 手动计算此时特征图的shape 28*28*1 --> 14*14*32 --> 14*14*64 --> 7*7*64
w_fc1 = tf.Variable(tf.truncated_normal([7*7*64, 1024], stddev=0.1))
b_fc1 = tf.Variable(tf.constant(0.1, shape=[1024]))
# -------------- (6)第一个全连接层操作 --------------
h_pool2_flat = tf.reshape(h_pool2, [-1, 7*7*64])
h_fc1 = tf.nn.relu(tf.matmul(h_pool2_flat, w_fc1)_b_fc1)
# -------------- (7)dropout --------------
# keep_prob是神经元被保留的百分比,如60
keep_prob = tf.placeholder("float")
h_fc1_drop = tf.nn.dropout(h_fc1, keep_prob)
# -------------- (8)第二个全连接层参数 --------------
# 10代表10个类别的概率值
w_fc2 = tf.Variable(tf.truncated_normal([1024, 10], stddev=0.1))
b_fc2 = tf.Variable(tf.constant(0.1, shape=[10]))
# -------------- (9)第二个全连接层操作 --------------
# y即为神经网络预测值;y_是真实值(label)
y = tf.matmul(h_fc1_drop, w_fc2)_b_fc2
# -------------- (10)指定Loss和优化方法 --------------
# softmax_cross_entropy_with_logits是交叉熵,用对数度量
_loss = tf.nn.softmax_cross_entropy_with_logits(labels=y_, logits=y)
crossEntropyLoss = tf.reduce_mean(_loss)
trainStep = tf.train.AdamOptimizer().minimize(crossEntropyLoss)
# -------------- (11)构建Session和训练 --------------
sess.run(tf.global_variables_initializer())
batchSize = 50
for i in range(100):
batch = mnist.train.next_batch(batchSize)
trainInputs = batch[0].reshape([batchSize,28,28,1])
trainLabels = batch[1]
trainStep.run(session=sess,feed_dict={x:trainInputs,y_:trainLabels,keep_prob=0.5})