输出层的神经元数量需要根据待解决的问题来决定。对于分类问题,输
出层的神经元数量一般设定为类别的数量;对于回归问题一般设为1.
前向传播##
**导入数据集,此案例是在本机下载了本书的代码之后运行的,下载地址http://www.ituring.com.cn/book/1921
import sys, os
sys.path.append(os.pardir) # 为了导入父目录中的文件而进行的设定
from dataset.mnist import load_mnist
(x_train, t_train), (x_test, t_test) = load_mnist(flatten=True,
normalize=False)
print(x_train.shape)
print(t_train.shape)
print(x_test.shape)
print(t_test.shape)
load_mnist(normalize=True,flatten=True, one_hot_label=False) 这 样,设 置 3 个 参 数。
第 1 个 参 数normalize 设置是否将输入图像正规化为0.0~1.0的值。如果将该参数设置
为 False ,则输入图像的像素会保持原来的0~255。
第2个参数 flatten 设置是否展开输入图像(变成一维数组)。如果将该参数设置为 False ,则输入图像为1 × 28 × 28的三维数组;若设置为 True ,则输入图像会保存为由784个
元素构成的一维数组。
第3个参数 one_hot_label 设置是否将标签保存为one-hot表示(one-hot representation)。one-hot表示是仅正确解标签为1,其余皆为0的数组,就像 [0,0,1,0,0,0,0,0,0,0] 这样。当 one_hot_label 为 False 时,只是像 7 、 2 这样简单保存正确解标签;当 one_hot_label 为 True 时,标签则保存为one-hot表示.
python有pickle这个便利的功能。这个功能可以将程序运行中的对象保存为文件。如果加载保存过的pickle文件,可以立刻复原之前程序运行中的对象。用于读入MNIST数据集的 load_mnist() 函数内部也使用了pickle功能(在第2次及以后读入时)。利用pickle功能,可以高效地完成MNIST数据的准备工作
显示mnist图像
import sys, os
sys.path.append(os.pardir)
import numpy as np
from dataset.mnist import load_mnist
from PIL import Image
def img_show(img):
pil_img = Image.fromarray(np.uint8(img))
pil_img.show()
(x_train, t_train), (x_test, t_test) = load_mnist(flatten=True,
normalize=False)
img = x_train[0]
label = t_train[0]
print(label) # 5
print(img.shape) # (784,)
img = img.reshape(28, 28) # 把图像的形状变成原来的尺寸
print(img.shape) # (28, 28)
img_show(img)
神经网络处理
#获取数据集
def get_data():
(x_train, t_train), (x_test, t_test) = \
load_mnist(normalize=True, flatten=True, one_hot_label=False)
return x_test, t_test
#init_network() 会读入保存在pickle文件 sample_weight.pkl 中的学习到的权重参数
def init_network():
with open("sample_weight.pkl", 'rb') as f:
network = pickle.load(f)
return network
def predict(network, x):
W1, W2, W3 = network['W1'], network['W2'], network['W3']
b1, b2, b3 = network['b1'], network['b2'], network['b3']
a1 = np.dot(x, W1) + b1
z1 = sigmoid(a1)
a2 = np.dot(z1, W2) + b2
z2 = sigmoid(a2)
a3 = np.dot(z2, W3) + b3
y = softmax(a3)
return y
实验
x, t = get_data()
network = init_network()
accuracy_cnt = 0
for i in range(len(x)):
y = predict(network, x[i]) # predict() 函数以NumPy数组的形式输出各个标签对应的概率。
p= np.argmax(y) # 获取概率最高的元素的索引
if p == t[i]:
accuracy_cnt += 1 #准确率
print("Accuracy:" + str(float(accuracy_cnt) / len(x)))
批处理
x, t = get_data()
network = init_network()
batch_size = 100 #每批的数量
accuracy_cnt = 0
for i in range(0, len(x), batch_size): #起始,结束,步长
x_batch = x[i:i+batch_size]
y_batch = predict(network, x_batch)
p = np.argmax(y_batch, axis=1) #在第一维寻找最大元素的索引
accuracy_cnt += np.sum(p == t[i:i+batch_size])
print("Accuracy:" + str(float(accuracy_cnt) / len(x)))