CS231n (winter 2016) : Assignment1

前言:

以斯坦福cs231n课程的python编程任务为主线,展开对该课程主要内容的理解和部分数学推导。该课程的学习资料和代码如下:
视频和PPT
笔记
assignment1初始代码


Part 1: 线性分类器(Linear classifier)

  • 分值函数,将原始数据(即输入数据,经过预处理后的)映射成每个类对应的分值(分值越高,该类的可能性就越大)。
    score function: map the raw data to class scores.
  • 损失(代价)函数,表示预测结果和真实类标签之间的差。
    loss/cost function: quantify the agreement between the predicted scores and the ground truth labels.
  • 优化,最小化损失函数(通过优化分值函数中的参数/权重)。
    optimization: minimize the loss function with respect to the parameters of the score function.
  • 数据集(本课程中指图像):
    ·训练集(training dataset),用于训练模型(即训练模型的表达能力)。
    ·验证集(validation dataset),用于微调模型的超参数,使模型性能达到最优。
    ·测试集(test dataset),测试模型的泛化能力。

假设我们有一个图像训练集 X,是一个大小为[N,D]的矩阵;其中,N表示样本的数量,D表示样本的维数。xi是X中的第i行,即第i个样本。
y表示一个向量,大小为[1,N];yi表示第i个样本的真实类别,yi=1,2,3, ...,C。

假设我们有一个线性映射为:

---------------------------------------------> f(xi, W, b) = xiW + b <----------------------------------------

其中,W是权重(weight)矩阵,大小为[D,C],W的第j列表示xi在第j(1≤ j ≤C)个类别上的线性映射;b是偏置向量,大小为[1,C];f的大小为[N,C]。(ps: 这里的公式为了和代码里的保持一致,做了调整,下面的公式都为编程服务)
函数f(xi, W, b) 的值就是C在每个类别上的得分,而我们的最终目标就是学习到W和b,使得f的大小在全局范围内接近真实值,即真实的类别得到更高的分数。
为了便于直观理解,下面贴出一个栗子(和上面的公式有点区别,但不影响理解):

CS231n Convolutional Neural Networks for Visual Recognition.png

图片中的结果认为这很可能是一只狗,说明W和b的值没有训练好。
关于线性分类器的几何解释和模板解释,可以直接看cs231n的笔记,这里不再赘述。

为了便于计算,我们可以将b和W进行合并,将b加到W的最后一行,W的大小将变为[D+1,C]。此时,xi需要增加一维常数1,即xi的大小为[1,D+1](编程的时候别忘了);同时,上面的f需要修改为:f(xi, W) 。

  • 数据预处理(Part 3 部分会讲一下为什么需要预处理)
    在机器学习里,规范化/归一化(Normalization)输入特征(这里指像素值[0,255])是非常常见且必要的,特别是对于各维度幅度变化非常大的数据集。但对于图像而言,一般只要去均值(mean subtraction)即可(因为图像每一维的像素值都在[0,255]之间),即计算出训练集图像的均值图像,然后每张图像(包括训练集、验证集和测试集)减去均值图像(一般不需要归一化和白化)。在numpy中此过程可以表示为: X -= np.mean(X, axis=0)。

1. 多分类支持向量机损失函数(Multiclass SVM loss)

SVM loss : 对于每一张图像样本,正确分类的得分应该比错误分类的得分至少高Δ(Δ的取值在实际中一般为1,不将Δ作为参数是因为它的变化可以转换为W的变化,所以只要训练W就行了)。这里贴上一张图便于理解:

CS231n Convolutional Neural Networks for Visual Recognition.png

上面我们提到的线性映射将第i个样本的像素值作为输入,输出该样本在C个类别上的得分,形成一个分值向量,大小为[1,C]。所以,我们记sj = f(xi, W)j,表示第i个样本在第j类上的得分。那么,multiclass SVM loss的表达式如下:

------------------------------------------> Li = ∑j≠yi max(0, sj−syi+Δ) <-----------------------------------

从表达式中可以看出,当syi >= sj + Δ 时,Li = 0,这时候表示判断准确;反之,Li>0,这时候表示判断有误。
我们可以将Li重新表示如下:

-------------------------------------> Li = ∑j≠yi max(0, (xiW)j−(xyiW)j+Δ) <-----------------------------

上面的max(0, -)函数称为Hinge loss,有时候也可以用max(0, -)2,称为squared hinge loss SVM (or L2-SVM),它对错误的惩罚更加严厉。我们可以通过交叉验证来选择具体的形式(多数情况下我们会使用前者)。(ps: 这里有一篇介绍Hinge loss的博文)


2. 正则化(Regularization)

上面的损失函数存在缺陷:W不唯一。假设一组W使得损失函数的值为0,那么 λW (λ>1) 也能做到。为了得到唯一的W进行分类工作,我们可以添加一个正则化惩罚项(regularization penalty)R(W)来实现,通常是2范数:

-------------------------------------------> R(W) = ∑ks (Wk,s)2 <-----------------------------------------

添加惩罚项后,完整的损失函数表达式为:

------------------------------------------> L = (1/N)∑iLi + λR(W) <----------------------------------------

其中,λ可以通过交叉验证来选择。

对参数进行惩罚最主要的作用其实是防止过拟合(overfitting),提高模型的泛化能力。此外,偏置b不会对输入特征的影响强度产生作用,所以我们不需要对b进行惩罚(但是b被合并到了W里,所以实际上我们在assignment1里对b也进行了惩罚,不过影响不大)。

后面求解参数W会用到L关于W的偏导数,这里我们先给出(推导比较简单,这里Δ我直接换成1了):

---------------------------> ∇Wyi Li = - xiT(∑j≠yi1(xiWj - xiWyi +1>0)) + 2λWyi <----------------------
----------------------------> ∇Wj Li = xiT 1(xiWj - xiWyi +1>0) + 2λWj , (j≠yi) <-----------------------

其中,1(·)是示性函数,其取值规则为:1(表达式为真) =1;1(表达式为假) =0。


3. Softmax classifier

Softmax是二值Logistic回归在多分类问题上的推广。
这里函数f保持不变,将Hinge loss替换成交叉熵损失函数(cross-entropy loss),其损失函数表达式如下(log(e) =1):

--------------------------------------> Li = -log(exp(fyi)/∑j exp(fj)) <--------------------------------------

其中,函数fj(z) = exp(zj)/∑k exp(zk)称为softmax函数。可以看出softmax函数的输出实际上是输入样本xi在K个类别上的概率分布,而上式是概率分布的交叉熵(不是相对熵,虽然看上去好像是相对熵,下面我会稍微修改一下Li,还原它的本来面目;交叉熵可以看做熵与相对熵之和)。
先引入一下信息论里的交叉熵公式:H(p,q) = -∑x p(x)logq(x);其中p表示真实分布,q表示拟合分布。下面我们来修改下Li

----------------------------------> Li = -∑k pi,klog(exp(fk)/∑j exp(fj)) <-----------------------------------

其中,pi = [0,0, ...,0,1,0, ...,0,0],pi,k=pi[k],pi 的大小为[1,C],pi 中只有pi[yi]=1,其余元素均为0。现在感觉如何?

在实际编程计算softmax函数时,可能会遇到数值稳定性(Numeric stability)问题(因为在计算过程中,exp(fyi) 和 ∑j exp(fj) 的值可能会变得非常大,大值数相除容易导致数值不稳定),为了避免出现这样的问题,我们可以进行如下处理:

CS231n Convolutional Neural Networks for Visual Recognition.png

其中,C的取值通常为:logC = -maxj fj,即-logC取f每一行中的最大值。

现在,结合惩罚项,给出总的损失函数:

---------------------> L = -(1/N)∑ij1(k=yi)log(exp(fk)/∑j exp(fj)) + λR(W) <-----------------------

后面求解参数W会用到L关于W的偏导数,这里我们先给出结果,然后推导一遍:

--------------> ∇Wk L = -(1/N)∑i xiT(pi,m-Pm) + 2λWk, where Pk = exp(fk)/∑j exp(fj) <----------

推导过程如下:

Derivative of softmax loss function.png

下面贴出一张图,大家可以直观感受下SVM和Softmax关于损失函数的计算区别:

CS231n Convolutional Neural Networks for Visual Recognition.png

4. 优化(Optimization)

优化就是通过在训练集上训练参数(权重和偏置),最小化损失函数的过程。然后,通过验证集来微调超参数(学习率、惩罚因子λ等等),最终得到最优的模型;并用测试集来测试模型的泛化能力。

通常我们用梯度下降法(Gradient Descent)并结合反向传播(Backpropagation)来训练参数。具体的参数更新策略,这里我们使用vanilla update方法(我们会在Part3神经网络部分,具体介绍不同的参数更新策略),即x += - learning_rate * dx,其中x表示需要更新的参数。
梯度下降的版本很多,通常我们使用Mini-batch梯度下降法(Mini-batch Gradient Descent),具体参见该课程的笔记
ps: 在编程任务中你会发现上面提示用随机梯度下降(Stochastic Gradient Descent, SGD),但实际上用了Mini-batches,所以当你听到有人用SGD来优化参数,不要惊讶,他们实际是用了Mini-batches的。

至于反向传播,实际就是链式法则(chain rule),这里不展开讲,具体参见课程笔记。实际上我已经给出了,就是上面的偏导。等到后面的神经网络,再具体展开讲一下。


Part 2: Python编程任务(线性分类器)

· 我用的IDE是Pycharm。
· Assignment1的线性分类器部分,我们需要完成 linear_svm.py,softmax.py,linear_classifier.py。在完成后,你可以用svm.ipynb和softmax.ipynb里的代码来debug你的模型,获得最优模型,然后在测试集上测试分类水平。
· Assignment1用的图像库是CIFAR-10,你也可以从这里下载。

linear_svm.py代码如下:

__coauthor__ = 'Deeplayer'
# 5.19.2016

import numpy as np
def svm_loss_naive(W, X, y, reg):
    """
    Inputs:
    - W: A numpy array of shape (D, C) containing weights.
    - X: A numpy array of shape (N, D) containing a minibatch of data.
    - y: A numpy array of shape (N,) containing training labels; y[i] = c means 
         that X[i] has label c, where 0 <= c < C.
    - reg: (float) regularization strength

    Returns a tuple of:
    - loss as single float
    - gradient with respect to weights W; an array of same shape as W
    """
    dW = np.zeros(W.shape)   # initialize the gradient as zero
    # compute the loss and the gradient
    num_classes = W.shape[1]
    num_train = X.shape[0]
    loss = 0.0
    for i in xrange(num_train):    
        scores = X[i].dot(W)    
        correct_class_score = scores[y[i]]
        for j in xrange(num_classes):
            if j == y[i]:    
                continue
            margin = scores[j] - correct_class_score + 1   # note delta = 1
            if margin > 0:
                loss += margin
                dW[:, y[i]] += -X[i, :]     # compute the correct_class gradients
                dW[:, j] += X[i, :]         # compute the wrong_class gradients
    # Right now the loss is a sum over all training examples, but we want it
    # to be an average instead so we divide by num_train.
    loss /= num_train
    dW /= num_train
    # Add regularization to the loss.
    loss += 0.5 * reg * np.sum(W * W)
    dW += reg * W
    return loss, dW

def svm_loss_vectorized(W, X, y, reg):
    """
    Structured SVM loss function, vectorized implementation.Inputs and outputs 
    are the same as svm_loss_naive.
    """
    loss = 0.0
    dW = np.zeros(W.shape)   # initialize the gradient as zero
    scores = X.dot(W)        # N by C
    num_train = X.shape[0]
    num_classes = W.shape[1]
    scores_correct = scores[np.arange(num_train), y]   # 1 by N
    scores_correct = np.reshape(scores_correct, (num_train, 1))  # N by 1
    margins = scores - scores_correct + 1.0     # N by C
    margins[np.arange(num_train), y] = 0.0
    margins[margins <= 0] = 0.0
    loss += np.sum(margins) / num_train
    loss += 0.5 * reg * np.sum(W * W)
    # compute the gradient
    margins[margins > 0] = 1.0
    row_sum = np.sum(margins, axis=1)                  # 1 by N
    margins[np.arange(num_train), y] = -row_sum        
    dW += np.dot(X.T, margins)/num_train + reg * W     # D by C
  
    return loss, dW


softmax.py代码如下:

__coauthor__ = 'Deeplayer'
# 5.19.2016

import numpy as np

def softmax_loss_naive(W, X, y, reg):    

    # Initialize the loss and gradient to zero.
    loss = 0.0
    dW = np.zeros_like(W)    # D by C
    dW_each = np.zeros_like(W)
    num_train, dim = X.shape
    num_class = W.shape[1]
    f = X.dot(W)    # N by C
    # Considering the Numeric Stability
    f_max = np.reshape(np.max(f, axis=1), (num_train, 1))   # N by 1
    prob = np.exp(f - f_max) / np.sum(np.exp(f - f_max), axis=1, keepdims=True) # N by C
    y_trueClass = np.zeros_like(prob)
    y_trueClass[np.arange(num_train), y] = 1.0
    for i in xrange(num_train):
        for j in xrange(num_class):    
            loss += -(y_trueClass[i, j] * np.log(prob[i, j]))    
            dW_each[:, j] = -(y_trueClass[i, j] - prob[i, j]) * X[i, :]
        dW += dW_each
    loss /= num_train
    loss += 0.5 * reg * np.sum(W * W)
    dW /= num_train
    dW += reg * W

    return loss, dW

def softmax_loss_vectorized(W, X, y, reg):    
    """    
    Softmax loss function, vectorized version.    

    Inputs and outputs are the same as softmax_loss_naive.    
    """    
    # Initialize the loss and gradient to zero.    
    loss = 0.0    
    dW = np.zeros_like(W)    # D by C    
    num_train, dim = X.shape

    f = X.dot(W)    # N by C
    # Considering the Numeric Stability
    f_max = np.reshape(np.max(f, axis=1), (num_train, 1))   # N by 1
    prob = np.exp(f - f_max) / np.sum(np.exp(f - f_max), axis=1, keepdims=True)
    y_trueClass = np.zeros_like(prob)
    y_trueClass[range(num_train), y] = 1.0    # N by C
    loss += -np.sum(y_trueClass * np.log(prob)) / num_train + 0.5 * reg * np.sum(W * W)
    dW += -np.dot(X.T, y_trueClass - prob) / num_train + reg * W

    return loss, dW

linear_classifier.py代码如下:

__coauthor__ = 'Deeplayer'
# 5.19.2016

from linear_svm import *
from softmax import *

class LinearClassifier(object):    

    def __init__(self):        
        self.W = None    

    def train(self, X, y, learning_rate=1e-3, reg=1e-5, num_iters=100, 
                          batch_size=200, verbose=True):
        """        
        Train this linear classifier using stochastic gradient descent.   
  
        Inputs:       
        - X: A numpy array of shape (N, D) containing training data; there are N          
             training samples each of dimension D.        
        - y: A numpy array of shape (N,) containing training labels; y[i] = c          
             means that X[i] has label 0 <= c < C for C classes.        
        - learning_rate: (float) learning rate for optimization.        
        - reg: (float) regularization strength.        
        - num_iters: (integer) number of steps to take when optimizing
        - batch_size: (integer) number of training examples to use at each step.        
        - verbose: (boolean) If true, print progress during optimization.

        Outputs:         
        A list containing the value of the loss function at each training iteration.
        """
        num_train, dim = X.shape
        # assume y takes values 0...K-1 where K is number of classes
        num_classes = np.max(y) + 1  
        if self.W is None:
            # lazily initialize W
            self.W = 0.001 * np.random.randn(dim, num_classes)   # D by C

        # Run stochastic gradient descent(Mini-Batch) to optimize W
        loss_history = []
        for it in xrange(num_iters): 
            X_batch = None
            y_batch = None
            # Sampling with replacement is faster than sampling without replacement.
            sample_index = np.random.choice(num_train, batch_size, replace=False)
            X_batch = X[sample_index, :]   # batch_size by D
            y_batch = y[sample_index]      # 1 by batch_size
            # evaluate loss and gradient
            loss, grad = self.loss(X_batch, y_batch, reg)
            loss_history.append(loss)

            # perform parameter update
            self.W += -learning_rate * grad
            if verbose and it % 100 == 0:
                print 'Iteration %d / %d: loss %f' % (it, num_iters, loss)

        return loss_history

    def predict(self, X):    
        """    
        Use the trained weights of this linear classifier to predict labels for   
        data points.    

        Inputs:    
        - X: D x N array of training data. Each column is a D-dimensional point.    

        Returns:    
        - y_pred: Predicted labels for the data in X. y_pred is a 1-dimensional     
                  array of length N, and each element is an integer giving the 
                  predicted class.  
        """
        y_pred = np.zeros(X.shape[1])    # 1 by N
        y_pred = np.argmax(np.dot(self.W.T, X), axis=0)

        return y_pred

    def loss(self, X_batch, y_batch, reg):   
        """    
        Compute the loss function and its derivative.    
        Subclasses will override this.    

        Inputs:    
        - X_batch: A numpy array of shape (N, D) containing a minibatch of N 
                   data points; each point has dimension D.    
        - y_batch: A numpy array of shape (N,) containing labels for the minibatch.
        - reg: (float) regularization strength.   

        Returns: A tuple containing:    
        - loss as a single float    
        - gradient with respect to self.W; an array of the same shape as W   
        """    
        pass

class LinearSVM(LinearClassifier):   
    """ 
    A subclass that uses the Multiclass SVM loss function 
    """    
    def loss(self, X_batch, y_batch, reg):        
        return svm_loss_vectorized(self.W, X_batch, y_batch, reg)

class Softmax(LinearClassifier):   
    """ 
    A subclass that uses the Softmax + Cross-entropy loss function 
    """    
    def loss(self, X_batch, y_batch, reg):        
        return softmax_loss_vectorized(self.W, X_batch, y_batch, reg)

下面我贴一下微调超参数获得最优模型的代码,并给出一些运行结果和图:

1、 LinearClassifier_svm_start.py

__coauthor__ = 'Deeplayer'
# 5.20.2016

import numpy as np
import matplotlib.pyplot as plt
import math
from linear_classifier import *
from data_utils import load_CIFAR10

# Load the raw CIFAR-10 data.
cifar10_dir = 'E:/PycharmProjects/ML/CS231n/cifar-10-batches-py' # u should change this
X_train, y_train, X_test, y_test = load_CIFAR10(cifar10_dir)
# As a sanity check, we print out the size of the training and test data.
print 'Training data shape: ', X_train.shape     # (50000,32,32,3)
print 'Training labels shape: ', y_train.shape   # (50000L,)
print 'Test data shape: ', X_test.shape          # (10000,32,32,3)
print 'Test labels shape: ', y_test.shape        # (10000L,)
print

# Visualize some examples from the dataset.
# We show a few examples of training images from each class.
classes = ['plane', 'car', 'bird', 'cat', 'deer', 
                'dog', 'frog', 'horse', 'ship', 'truck']
num_classes = len(classes)
samples_per_class = 7
for y, cls in enumerate(classes):    
    idxs = np.flatnonzero(y_train == y)    
    idxs = np.random.choice(idxs, samples_per_class, replace=False) 
    for i, idx in enumerate(idxs):        
        plt_idx = i * num_classes + y + 1 
        plt.subplot(samples_per_class, num_classes, plt_idx)   
        plt.imshow(X_train[idx].astype('uint8'))        
        plt.axis('off')       
        if i == 0:            
            plt.title(cls)
plt.show()

# Split the data into train, val, and test sets.
num_training = 49000
num_validation = 1000
num_test = 1000
mask = range(num_training, num_training + num_validation)
X_val = X_train[mask]                  # (1000,32,32,3)
y_val = y_train[mask]                  # (1,1000)
mask = range(num_training)
X_train = X_train[mask]                # (49000,32,32,3)
y_train = y_train[mask]                # (1,49000)
mask = range(num_test)
X_test = X_test[mask]                  # (1000,32,32,3)
y_test = y_test[mask]                  # (1,1000)

# Preprocessing1: reshape the image data into rows
X_train = np.reshape(X_train, (X_train.shape[0], -1))    # (49000,3072)
X_val = np.reshape(X_val, (X_val.shape[0], -1))          # (1000,3072)
X_test = np.reshape(X_test, (X_test.shape[0], -1))       # (1000,3072)

# Preprocessing2: subtract the mean image
mean_image = np.mean(X_train, axis=0)       # (1,3072)
X_train -= mean_image
X_val -= mean_image
X_test -= mean_image

# Visualize the mean image
plt.figure(figsize=(4, 4))
plt.imshow(mean_image.reshape((32, 32, 3)).astype('uint8'))
plt.show()

# Bias trick, extending the data
X_train = np.hstack([X_train, np.ones((X_train.shape[0], 1))])    # (49000,3073)
X_val = np.hstack([X_val, np.ones((X_val.shape[0], 1))])          # (1000,3073)
X_test = np.hstack([X_test, np.ones((X_test.shape[0], 1))])       # (1000,3073)

# Use the validation set to tune hyperparameters (regularization strength 
# and learning rate).
learning_rates = [1e-7, 5e-5]
regularization_strengths = [5e4, 1e5]
results = {}best_val = -1    # The highest validation accuracy that we have seen so far.
best_svm = None   # The LinearSVM object that achieved the highest validation rate.
iters = 1500
for lr in learning_rates:
    for rs in regularization_strengths:    
        svm = LinearSVM()    
        svm.train(X_train, y_train, learning_rate=lr, reg=rs, num_iters=iters)    
        Tr_pred = svm.predict(X_train.T)    
        acc_train = np.mean(y_train == Tr_pred)    
        Val_pred = svm.predict(X_val.T)    
        acc_val = np.mean(y_val == Val_pred)    
        results[(lr, rs)] = (acc_train, acc_val)    
        if best_val < acc_val:
            best_val = acc_val
            best_svm = svm

# print results
for lr, reg in sorted(results):    
    train_accuracy, val_accuracy = results[(lr, reg)]    
    print 'lr %e reg %e train accuracy: %f val accuracy: %f' % 
                                (lr, reg, train_accuracy, val_accuracy)
print 'Best validation accuracy achieved during validation: %f' % best_val # around 38.2%

# Visualize the learned weights for each class
w = best_svm.W[:-1, :]   # strip out the bias
w = w.reshape(32, 32, 3, 10)
w_min, w_max = np.min(w), np.max(w)
classes = ['plane', 'car', 'bird', 'cat', 'deer', 
                    'dog', 'frog', 'horse', 'ship', 'truck']
for i in xrange(10):    
    plt.subplot(2, 5, i + 1)    
    # Rescale the weights to be between 0 and 255    
    wimg = 255.0 * (w[:, :, :, i].squeeze() - w_min) / (w_max - w_min)    
    plt.imshow(wimg.astype('uint8'))    
    plt.axis('off')    
    plt.title(classes[i])
    plt.show()

# Evaluate the best svm on test set
Ts_pred = best_svm.predict(X_test.T)
test_accuracy = np.mean(y_test == Ts_pred)     # around 37.1%
print 'LinearSVM on raw pixels of CIFAR-10 final test set accuracy: %f' % test_accuracy   

下面可视化一下部分原始图片、均值图像和学习到的权重:


figure_1.png
figure_2.png
figure_3.png

2、 LinearClassifier_softmax_start.py

__coauthor__ = 'Deeplayer'
# 5.20.2016

import numpy as np
from data_utils import load_CIFAR10
from linear_classifier import *

def get_CIFAR10_data(num_training=49000, num_validation=1000, num_test=1000):  
    """ 
    Load the CIFAR-10 dataset from disk and perform preprocessing to prepare 
    it for the linear classifier. These are the same steps as we used for the SVM, 
    but condensed to a single function.  
    """  
    # Load the raw CIFAR-10 data 
    cifar10_dir = 'E:/PycharmProjects/ML/CS231n/cifar-10-batches-py'   # make a change
    X_train, y_train, X_test, y_test = load_CIFAR10(cifar10_dir)  
    # subsample the data  
    mask = range(num_training, num_training + num_validation)
    X_val = X_train[mask]  
    y_val = y_train[mask]  
    mask = range(num_training)  
    X_train = X_train[mask]  
    y_train = y_train[mask]  
    mask = range(num_test)  
    X_test = X_test[mask]  
    y_test = y_test[mask]  
    # Preprocessing: reshape the image data into rows  
    X_train = np.reshape(X_train, (X_train.shape[0], -1))  
    X_val = np.reshape(X_val, (X_val.shape[0], -1)) 
    X_test = np.reshape(X_test, (X_test.shape[0], -1))  
    # subtract the mean image  
    mean_image = np.mean(X_train, axis=0)  
    X_train -= mean_image  
    X_val -= mean_image  
    X_test -= mean_image  
    # add bias dimension and transform into columns  
    X_train = np.hstack([X_train, np.ones((X_train.shape[0], 1))])  
    X_val = np.hstack([X_val, np.ones((X_val.shape[0], 1))])  
    X_test = np.hstack([X_test, np.ones((X_test.shape[0], 1))])  

    return X_train, y_train, X_val, y_val, X_test, y_test

# Invoke the above function to get our data.
X_train, y_train, X_val, y_val, X_test, y_test, X_dev, y_dev = get_CIFAR10_data()

# Use the validation set to tune hyperparameters (regularization strength 
# and learning rate).
results = {}
best_val = -1
best_softmax = None
learning_rates = [1e-7, 5e-7]
regularization_strengths = [5e4, 1e4]
iters = 1500
for lr in learning_rates:    
    for rs in regularization_strengths:        
        softmax = Softmax()       
        softmax.train(X_train, y_train, learning_rate=lr, reg=rs, num_iters=iters)        
        Tr_pred = softmax.predict(X_train.T)       
        acc_train = np.mean(y_train == Tr_pred)       
        Val_pred = softmax.predict(X_val.T)        
        acc_val = np.mean(y_val == Val_pred)       
        results[(lr, rs)] = (acc_train, acc_val)       
        if best_val < acc_val:           
            best_val = acc_val            
            best_softmax = softmax

# Print out results.
for lr, reg in sorted(results):    
    train_accuracy, val_accuracy = results[(lr, reg)]    
    print 'lr %e reg %e train accuracy: %f val accuracy: %f' % 
                                    (lr, reg, train_accuracy, val_accuracy)
        # around 38.9%                     
print 'best validation accuracy achieved during cross-validation: %f' % best_val

# Evaluate the best softmax on test set.
Ts_pred = best_softmax.predict(X_test.T)
test_accuracy = np.mean(y_test == Ts_pred)       # around 37.4%
print 'Softmax on raw pixels of CIFAR-10 final test set accuracy: %f' % test_accuracy


最后以SVM为例,比较一下向量化和非向量化编程在运算速度上的差异:
--> naive_vs_vectorized.py

__coauthor__ = 'Deeplayer'
# 5.20.2016

import time
from linear_svm import *
from data_utils import load_CIFAR10

def get_CIFAR10_data(num_training=49000, num_dev=500):  

    # Load the raw CIFAR-10 data  
    cifar10_dir = 'E:/PycharmProjects/ML/CS231n/cifar-10-batches-py'   # make a change
    X_train, y_train, X_test, y_test = load_CIFAR10(cifar10_dir)  
    mask = range(num_training)  
    X_train = X_train[mask]  
    mask = np.random.choice(num_training, num_dev, replace=False)    
    X_dev = X_train[mask]  
    y_dev = y_train[mask]  

    X_train = np.reshape(X_train, (X_train.shape[0], -1))  
    X_dev = np.reshape(X_dev, (X_dev.shape[0], -1))    

    mean_image = np.mean(X_train, axis=0)  
    X_dev -= mean_image  
    X_dev = np.hstack([X_dev, np.ones((X_dev.shape[0], 1))])  

    return X_dev, y_dev

X_dev, y_dev = get_CIFAR10_data()
# generate a random SVM weight matrix of small numbers
W = np.random.randn(3073, 10) * 0.0001
tic = time.time()
loss_naive, grad_naive = svm_loss_naive(W, X_dev, y_dev, 0.00001)
toc = time.time()
print 'Naive loss and gradient: computed in %fs' % (toc - tic)    # around 0.198s

tic = time.time()
loss_vectorized, grad_vectorized = svm_loss_vectorized(W, X_dev, y_dev, 0.00001)
toc = time.time()
print 'Vectorized loss and gradient: computed in %fs' % (toc - tic)    # around 0.005s

Part 3: 神经网络(Neural Networks)

  • 神经网络模型是由多个人工神经元构成的多层网络结构,而人工神经元的灵感来自人脑;相对于生物神经元,人工神经元只是一个十分粗糙的模型。下面给出一张生物神经元和它的数学模型的对比图:
CS231n Convolutional Neural Networks for Visual Recognition.png
  • 从上图的数学模型我们可以看出人工神经元的处理过程如下:
    输入x与权重w做内积 ----> 内积结果输入激活函数 ---> 从激活函数输出信号
  • 感知器(perceptron)和S型神经元(sigmoid neuron),是两个重要的人工神经元,承载了神经网络的关键思想(可以移步Michael Nielsen写的Neural Networks and Deep Learning)。

先介绍下S型神经元,上张图:

Neural Networks and Deep Learning.png

S 型神经元有多个输入x1,x2,x3,... ;对每个输入有权重w1,w2,...,和⼀个总的偏置b。输出output = σ�(w�x+b),这里σ被称为S型函数,定义为:

---------------------------------------------> σ(z) = 1/(1+e-z) <---------------------------------------------

σ的函数曲线如下:

Neural Networks and Deep Learning.png

这个形状是阶跃函数平滑后的版本:

Neural Networks and Deep Learning.png

σ函数的平滑特性是它成为激活函数的关键因素,� σ的平滑特性意味着权重和偏置的微小变化,Δwj和Δb,会通过神经元产生一个微小的输出变化Δoutput。实际上,Δoutput可以很好地近似表示为:

Neural Networks and Deep Learning.png

从公式可以看出,Δoutput是一个反映权重和偏置变化的线性函数。这一线性性质,使得我们可以很容易地选择小的权重和偏置的变化量,来获得任何想要的小的输出变化量。

下面介绍神经网络的结构(ps: 这里指前馈(feedforward)神经网络,网络中是没有回路的,信息总是向前传播,不反向回馈),神经网络通常有如下结构:

The Architecture of Neural Networks.png

上图是一个含有两个隐藏层的3-layer神经网络,层与层之间是全连接(fully-connected)的。输入层是图像数据(经过预处理后的),即该层的神经元数量等于输入图片的维数;神经网络的隐藏层可以是一层或多层,多层神经网络我们称为人工神经网络(ANN),其实最后一层隐藏层,我们可以看成是输入图像的特征向量;输出层神经元的数量等于需要分类的图像数据的类别数,输出值可以看成是在每个类别上的得分。

对于分类任务而言,根据损失函数(SVM loss function or softmax loss function)选择的不同,神经网络的输出层也可以看作是SVM层或Softmax层。神经网络的激活函数是非线性的,所以神经网络是一个非线性分类器。
---> (ps: 神经网络的输出层神经元不含激活函数f)

神经网络的多层结构给它带来了非常强大的表达能力(层越深,神经元数量越多,表达能力越强),换句话说,神经网络可以拟合任意函数!具体的可视化证明可以移步这里。但是,隐藏层或神经元数量越多,越容易出现过拟合(overfitting)现象,这时我们需要使用规则化(L2 regularization, dropout等等)来控制过拟合。

接下来我们具体讨论神经网络的各个环节:

1. 激活函数的选择

之前我们已经介绍了S型函数,但是在实际应用中,我们基本不会使用它,因为它的缺陷较多。先看下σ的导数:

Neural Networks and Deep Learning.png

从图中我们可以看到,S型函数导数值在0到0.25之间。在进行反向传播的时候,σ�′会和梯度相乘,前面层的梯度值等于后面层的乘积项,那么越往前梯度值越小,慢慢趋近于0,这就是梯度消失问题(vanishing gradient problem)。为了便于理解梯度为什么会消失,我们给出一个每层只有一个神经元的4-layer简化模型:

The Vanishing Gradient Problem.png

其中,C表示代价函数,aj = �σ(zj)(注意,a4 = z4),zj = wjaj-1 + bj,我们称 zj是神经元的带权输入。现在我们要来研究一下第一个隐藏神经元的梯度∂C/∂b1,这里我们直接给出表达式(具体证明,请移步这里):

The Vanishing Gradient Problem.png

我们看出∂C/∂b1会是∂C/∂b3的1/16 或者更小,这其实就是梯度消失的本质原因。这会导致深层神经网络前面的隐藏层神经元学习速度慢于后面隐藏层神经元的学习速度,而且越往前越慢,最终无法学习。
---> ps: 对于这个问题,不论使用什么样的激活函数,都会出现,但是有些激活函数可以减轻这一问题。说到这里,不得不提一下Batch Normalization,这一方法在很大程度上缓解了梯度消散问题,bravo!

除此之外,sigmoid还有两个缺陷:
其一,当sigmoid的输入值很小或者很大的时候,它的导数会趋于0,在反向传播的时候梯度就会趋于0,那么神经元就不能很好的更新而提前饱和;
其二,sigmoid神经元输出值(激活值)是恒大于0的,那么问题来了,就以上面的4-layer简化模型为例,你会发现在反向传播时,梯度会恒正或恒负(取决于∂C/∂a4的正负)。换句话说,连接到同一个神经元的所有权重w(包括偏置b)会一起增加或者一起减少。这就有问题了,因为某些权重可能需要有不同方向的变化(虽然没有严格的证明,但这样更加合理)。所以,我们通常希望激活函数的输出值是关于0对称的

下面列出一些相对于sigmoid性能更好的激活函数:

1、Tanh
tanh神经元使用双曲正切函数替换了S型函数,tanh函数的定义如下:

-------------------------------------> tanh(z) = (ex−e-x)/(ex+e-x) <----------------------------------------

该公式也可以写成:tanh(z) = 2σ(2z)−1,所以tanh可以看做是sigmoid的缩放版,相对于sigmoid的好处是他的输出值关于0对称,其函数曲线如下:

Neural Networks and Deep Learning.png

2、修正线性单元(Rectified Linear Unit, ReLU)
ReLU是近几年在图像识别上比较受欢迎的激活函数,定义如下:

------------------------------------------> f(z) = max(0, z) <------------------------------------------------

其函数曲线如下:

Neural Networks and Deep Learning.png

ReLU的优点在于它不会饱和,收敛快(即能快速找到代价函数的极值点),而且计算简单(函数形式很简单);但是收敛快也使得ReLU比较脆弱,如果梯度的更新太快,还没有找到最佳值,就进入小于0的函数段,这会使得梯度变为0,无法更新梯度直接挂机了。所以,对于ReLU神经元,控制学习率(learning rate)十分重要。此外,它的输出也不是均值为零0的。
---> ps: 在assignment1里的神经网络部分,我们选择ReLU作为我们的激活函数。

3、Leaky ReLU(LReLU)
Leaky ReLU是ReLU的改进版,修正了ReLU的缺点,定义如下:

-------------------------------------------> f(z)=max(αz, z) <------------------------------------------------

其中,α为较小的正值(如0.01),函数曲线如下:

figure_4.png

4、Maxout
Maxout是ReLU和LReLU的一般化公式,公式如下:

----------------------------------------------> max(z1, z2) <--------------------------------------------------

可以看出,该方法会使得参数数量增加一倍。

5、指数线性单元(Exponential Linear Units, ELU)
ELU的公式为:


ELU.png

函数曲线如下:

figure_5.png

ELU除了具有LReLu的优点外,还有输出结果接近于0均值的良好特性;但是,计算复杂度会提高。
---> ps: 通常我们在神经网络中只使用一种激活函数。


2. 数据预处理

和Part1部分一样,假设我们有一个图像训练集X,是一个大小为[N,D]的矩阵;其中,N表示样本的数量,D表示样本的维数。xi是X中的第i行,即第i个样本。y表示一个向量,大小为[1,N];yi表示第i个样本的真实类别,yi=1,2,3, ...,C。

数据预处理的手段一般有:
· 去均值(mean subtraction)
· 规范化/归一化(normalization)
· 主成分分析(PCA)和白化(whitening)

对于图像而言,我们一般只进行去均值处理(好处1:自然图像数据是平稳的,即数据每一个维度的统计都服从相同分布。去均值处理可以移除图像的平均亮度值,我们对图像的照度并不感兴趣,而更多地关注其内容;好处2:使数据关于0对称),X -= np.mean(X, axis=0)。或者我们可以进一步进行归一化,即每一维减去该维的标准差,X /= np.std(X, axis = 0)。但是,我们通常不会进行白化,因为计算代价太大(需要计算协方差矩阵的特征值)。有关数据预处理的详细内容可以参见UFLDL课程笔记

---> PS1: 其实我们还要进行一项预处理,就是将图像向量化,假设图像大小为[d1,d2],向量化之后大小为[1,D],D=d1d2。但是我们通常不会将其纳入预处理范畴。

---> PS2: 我们为什么要进行预处理?因为预处理可以增大数据分布范围,加速收敛,即可以帮助我们更快地找到代价函数的极(小)值点。便于大家直观理解,我绘制了下面这张图(以二维数据为例):

data preprocessing.png

此图以ReLU神经元为例,ReLU(wx+b) = max(wx+b,0),图中绿色和红色的线表示wx+b=0;我们发现只有红色的线对数据进行了分割,说明我们随机初始化的参数只有少部分发挥了作用,那么在反向传播时,收敛速度就会变得很慢;但是去均值后的数据被大多数线分割了,这样收敛速度也就会快很多了。


3. 权重初始化方式的选择

通常我们会将权重随机初始化为:均值为0,标准差为一个很小的正数(如0.001)的高斯分布,在numpy中可以写成:w = np.random.randn(n)。这样的初始化方式对于小型的神经网络是可以的(在assignment1的编程部分,我们就是使用这样的初始化方式)。

但是对于深度神经网络,这样的初始化方式并不好。我们以激活函数为tanh为例,如果标准差设置得较小,后面层的激活值将全部趋于0,反向传播时梯度也会变的很小;如果我们将标准差设置得大些,神经元就会趋于饱和,梯度将会趋于零。

为了解决这个问题,我们可以使用方差校准技术:
· 实践经验告诉我们,如果每个神经元的输出都有着相似的分布会使收敛速度加快。而上面使用的随机初始化方式,会使得各个神经元的输出值的分布产生较大的变化。
· 抛开激活函数,我们假设神经元的带权输入s=∑iwixi,则s和x的方差关系如下:

CS231n Convolutional Neural Networks for Visual Recognition.png

得到的结果显示,如果希望s与输入变量x同分布就需要使w的方差为1/n。即权重初始化方式改为:w = np.random.randn(n) / sqrt(n)。

但是当使用ReLU作为激活函数时,各层神经元的输出值分布又不一样了,对于这个问题这篇论文进行了探讨,并给出了修改:w = np.random.randn(n) * sqrt(2.0/n),解决了此问题。

至于偏置的初始化,我们可以简单地将其初始化为0。


4. Batch Normalization

Batch Normalization就是在每一层的wx+b和f(wx+b)之间加一个归一化(将wx+b归一化成:均值为0,方差为1;但在原论文中,作者为了计算的稳定性,加了两个参数将数据又还原回去了,这两个参数也是需要训练的。Assignment2部分我会详细介绍)层,说白了,就是对每一层的数据都预处理一次。方便直观感受,上张图:

Batch Normalization.png

这个方法可以进一步加速收敛,因此学习率可以适当增大,加快训练速度;过拟合现象可以得倒一定程度的缓解,所以可以不用Dropout或用较低的Dropout,而且可以减小L2正则化系数,训练速度又再一次得到了提升。即Batch Normalization可以降低我们对正则化的依赖程度。
现在的深度神经网络基本都会用到Batch Normalization。


5. 正则化的选择

这里,我们会继续使用L2正则化(关于L1正则化和最大范数约束,请看课程笔记)来惩罚权重W,控制过拟合现象的发生。在深度神经网络(如卷积神经网络,后续的Assignment2篇会讲到)中我们通常也是选择L2正则化,而且还会增加Dropout来进一步控制过拟合。关于Dropout,我们留到Assignment2部分再详细介绍。


6. 损失函数的选择

损失(代价)函数由data loss 和 regularization loss两部分组成,即L = 1/N ∑iLi + λR(W)。我们常用的损失函数是SVM的hinge loss和softmax的交叉熵损失(这里我们只针对数据集中样本只有一个正确类的情况,对于其它分类问题和回归问题,请看课程笔记),这里我们选择softmax的交叉熵损失作为我们的损失函数。


7. 反向传播计算梯度

我们以激活函数f为ReLU,损失函数为softmax的交叉熵损失的3-layer神经网络为例,给出完整的计算各层梯度的过程(由于图片分辨率较高,请在新的标签页打开图片并放大,或者下载后观看。下图中,W3 的 size 应该是 [H,C]):

compute the gradient.jpg


8. 参数更新策略

1)、Vanilla update
最简单的参数更新方式,即我们常说的SGD方法的标准计算形式。

2)、Momentum update (SGD+Momentum)
该方法是对Vanilla update的改进版,为了理解momentum 技术,我们可以把现梯度下降,类比于球滚向山谷的底部。momentum 技术修改了梯度下降的两处使之类似于这个物理场景。首先,引入一个称为速度(velocity)的概念。梯度的作用就是改变速度,而不是直接的改变位置,就如同物理学中的力改变速度,只会间接地影响位置;第二,momentum 方法引入了一种摩擦力的项,用来逐步地减少速度。具体的更新规则如下:

----------------------------------------------) v --> v' = �μ�v - λdx (-------------------------------------------
------------------------------------------------) x --> x' = x + v' (---------------------------------------------

其中,x表示需要更新的参数(W和b),v的初始值为0,μ是用来控制摩擦力的量的超参数,取值在(0,1)之间,最常见的设定值为0.9(也可以用交叉验证来选择最合适的μ值,一般我们会从[0.5, 0.9, 0.95, 0.99]里面选出最合适的)。
从公式可以看出,我们通过重复地增加梯度项来构造速度,那么随着迭代次数的增加,速度会越来越快,这样就能够确保momentum技术比标准的梯度下降运行得更快;同时μ的引入,保证了在接近谷底时速度会慢慢下降,最终停在谷底,而不是在谷底来回震荡。
---> ps: SGD+Momentum是最常见的参数更新方式,这里我们就使用此方法。

3)、Nesterov Momentum (SGD+Nesterov Momentum)
算是Momentum update的改良版,实际应用中的收敛效果也略优于momentum update。为了方便理解Nesterov Momentum,我们把Momentum update的更新规则合并如下:

--------------------------------------------) x --> x' = (x + μ�v) - λdx (--------------------------------------

从公式可以看出,(x + μ�v)其实就是x即将去到的下一个位置;但是这个公式在计算梯度的时候,仍然还在计算dx,而我们希望它能前瞻性地计算d(x + μ�v),这样我们的梯度能更快的下降。贴张辅助理解的图(图中大红点表示参数x的当前位置):

CS231n Convolutional Neural Networks for Visual Recognition.png

现在我们可以给出Nesterov Momentum的参数更新规则了:

------------------------------------------> x_ahead = x + μv <---------------------------------------------
-----------------------------------------> v = μv - λdx_ahead <--------------------------------------------
-------------------------------------------------> x = x + v <--------------------------------------------------

在实际应用时,我们会稍作修改,对应代码如下:

v_prev = v                              
v = mu * v - learning_rate * dx         # 和 Momentum update 的更新方式一样
x += -mu * v_prev + (1 + mu) * v        # 新的更新方式

如果你想深入了解Nesterov Momentum的数学原理,请看论文:
· Advances in optimizing Recurrent Networks by Yoshua Bengio, Section 3.5.
· Ilya Sutskever’s thesis, contains a exposition of the topic in section 7.2


8.1. 衰减学习率

在实际训练过程中,随着训练过程的推进,逐渐衰减学习率是很有必要的技术手段。这也很容易理解,我们还是以山顶到山谷为例,刚开始离山谷很远,我们的步长可以大点,但是快接近山谷时,我们的步长得小点,以免越过山谷。
常见的学习率衰减方式:
1)、步长衰减:每一个epoch(1 epoch = N/batch_size iterations)过后,学习率下降一些,数学形式为λ'=kλ,k可以取0.9/0.95,我们也可以通过交叉验证获得。
2)、指数衰减:数学形式为α=α0e−kt,其中α0,k为超参数,t是迭代次数。
3)、1/t衰减:数学形式为α=α0/(1+kt),其中α0,k为超参数,t是迭代次数。

在实际应用中,我们通常选择步长衰减,因为它包含的超参数少,计算代价低。

以上的讨论都是以全局使用同样的学习率为前提的,而调整学习率是一件很费时同时也容易出错的事情,因此我们一直希望有一种学习率自更新的方式,甚至可以细化到逐参数更新。下面简单介绍一下几个常见的自适应方法:

1)、Adagrad
Adagrad是Duchi等在论文Adaptive Subgradient Methods for Online Learning and Stochastic Optimization中提出的自适应学习率算法,实现代码如下:

# Assume the gradient dx and parameter vector x
cache += dx**2
x += - learning_rate * dx / (np.sqrt(cache) + eps)

这种方法的好处是,对于高梯度的权重,它们的有效学习率被降低了;而小梯度的权重迭代过程中学习率提升了。要注意的是,这里开根号很重要。平滑参数eps是为了避免除以0的情况,eps一般取值1e-4 到1e-8。

2)、RMSprop
RMSprop是一种高效但是还未正式发布的自适应调节学习率的方法,RMSProp方法对Adagrad算法做了一个简单的优化,以减缓它的迭代强度:

cache = decay_rate * cache + (1 - decay_rate) * dx**2
x += - learning_rate * dx / (np.sqrt(cache) + eps)

其中,decay_rate是一个超参数,其值可以在 [0.9, 0.99, 0.999]中选择。

3)、Adam
Adam有点像RMSProp+momentum,效果比RMSProp稍好,其简化版的代码如下:

m = beta1*m + (1-beta1)*dx
v = beta2*v + (1-beta2)*(dx**2)
x += - learning_rate * m / (np.sqrt(v) + eps)

论文中推荐eps = 1e-8,beta1 = 0.9,beta2 = 0.999。 完整的Adam update还包括了一个偏差修正机制,以弥补m,v初始值为零的情况。

---> PS: 建议使用SGD+Nesterov Momentum 或 Adam来更新参数。

其它的一些方法:
·Adadelta by Matthew Zeiler
·Unit Tests for Stochastic Optimization

这里给出一些上述提到的多种参数更新方法下,损失函数最优化的示意图:

opt1.gif

opt2.gif

9. 超参数的优化

神经网络的训练过程中,我们需要对很多超参数进行优化,这个过程通常在验证集上进行,这里我们需要优化的超参数有:
·初始学习率
·学习率衰减因子
·正则化系数/惩罚因子(包括L2惩罚因子,dropout比例)

对于深度神经网络而言,我们训练一次需要很长的时间。所以,在此之前我们花一些时间去做超参数搜索,以确定最佳超参数。最直接的方式就是在框架实现的过程中,设计一个会持续变换超参数实施优化,并记录每个超参数在每一个epoch后,在验证集上状态和效果。实际应用中,神经网络里确定这些超参数,我们一般很少使用n折交叉验证,一般使用一份固定的交叉验证集就可以了。

对于初始学习率,通常的搜索序列是:learning_rate = 10 ** uniform(-6, 1),训练5 epoches左右,然后缩小范围,训练更多次epoches,最后确定初始学习率的大小,大概在1e-3左右;对于正则化系数λ,通常的搜索序列为[0.5, 0.9, 0.95, 0.99]。


10. 训练过程的可视化观察

1)、观察损失函数,来判断你设置的学习率好坏:

loss function.jpeg

但实际损失函数的变化没有上图光滑,会存在波动,下图是实际训练CIFAR-10的时候,loss的变化情况:

CIFAR10_loss.jpeg

大家可能会注意到上图的曲线有一些上下波动,这和设定的batch size有关系。batch size非常小的情况下,会出现很大的波动,如果batch size设定大一些,会相对稳定一点。
·
2)、观察训练集/验证集上的准确度,来判断是否发生了过拟合:

accuracies.jpeg

Part 4: Python编程任务(2-layer神经网络)

· Assignment1的神经网络部分,我们需要完成neural_net.py,完成后可以用two_layer_net.ipynb里的代码(部分代码需要自己完成)来调试你的模型,优化超参数,获得最优模型,最后在测试集上测试分类水平。
· 这里用的图像库还是CIFAR-10。

neural_net.py 代码如下:

__coauthor__ = 'Deeplayer'
# 6.14.2016 

#import numpy as np
class TwoLayerNet(object):    
    """    
    A two-layer fully-connected neural network. The net has an input dimension of    
    D, a hidden layer dimension of H, and performs classification over C classes.    
    The network has the following architecture:    
    input - fully connected layer - ReLU - fully connected layer - softmax
    The outputs of the second fully-connected layer are the scores for each class.
    """
    def __init__(self, input_size, hidden_size, output_size, std=1e-4): 
        self.params = {}    
        self.params['W1'] = std * np.random.randn(input_size, hidden_size)   
        self.params['b1'] = np.zeros((1, hidden_size))    
        self.params['W2'] = std * np.random.randn(hidden_size, output_size)   
        self.params['b2'] = np.zeros((1, output_size))

    def loss(self, X, y=None, reg=0.0):
        """    
        Compute the loss and gradients for a two layer fully connected neural network.
        """
        # Unpack variables from the params dictionary
        W1, b1 = self.params['W1'], self.params['b1']
        W2, b2 = self.params['W2'], self.params['b2']
        N, D = X.shape

        # Compute the forward pass
        scores = None
        h1 = ReLU(np.dot(X, W1) + b1)      # hidden layer 1  (N,H)
        out = np.dot(h1, W2) + b2          # output layer    (N,C)
        scores = out                       # (N,C)  
        if y is None:   
            return scores

        # Compute the lossloss = None
        # Considering the Numeric Stability
        scores_max = np.max(scores, axis=1, keepdims=True)    # (N,1)
        # Compute the class probabilities
        exp_scores = np.exp(scores - scores_max)              # (N,C)
        probs = exp_scores / np.sum(exp_scores, axis=1, keepdims=True)    # (N,C)
        # cross-entropy loss and L2-regularization
        correct_logprobs = -np.log(probs[range(N), y])        # (N,1)
        data_loss = np.sum(correct_logprobs) / N
        reg_loss = 0.5 * reg * np.sum(W1*W1) + 0.5 * reg * np.sum(W2*W2)
        loss = data_loss + reg_loss

        # Backward pass: compute gradients
        grads = {}
        # Compute the gradient of scores
        dscores = probs                                 # (N,C)
        dscores[range(N), y] -= 1
        dscores /= N
        # Backprop into W2 and b2
        dW2 = np.dot(h1.T, dscores)                     # (H,C)
        db2 = np.sum(dscores, axis=0, keepdims=True)    # (1,C)
        # Backprop into hidden layer
        dh1 = np.dot(dscores, W2.T)                     # (N,H)
        # Backprop into ReLU non-linearity
        dh1[h1 <= 0] = 0
        # Backprop into W1 and b1
        dW1 = np.dot(X.T, dh1)                          # (D,H)
        db1 = np.sum(dh1, axis=0, keepdims=True)        # (1,H)
        # Add the regularization gradient contribution
        dW2 += reg * W2
        dW1 += reg * W1
        grads['W1'] = dW1
        grads['b1'] = db1
        grads['W2'] = dW2
        grads['b2'] = db2

        return loss, grads

    def train(self, X, y, X_val, y_val, learning_rate=1e-3, 
               learning_rate_decay=0.95, reg=1e-5, mu=0.9, num_epochs=10, 
               mu_increase=1.0, batch_size=200, verbose=False):   
        """    
        Train this neural network using stochastic gradient descent. 
        Inputs:    
        - X: A numpy array of shape (N, D) giving training data.    
        - y: A numpy array f shape (N,) giving training labels; y[i] = c means that         
             X[i] has label c, where 0 <= c < C.    
        - X_val: A numpy array of shape (N_val, D) giving validation data.    
        - y_val: A numpy array of shape (N_val,) giving validation labels.    
        - learning_rate: Scalar giving learning rate for optimization.    
        - learning_rate_decay: Scalar giving factor used to decay the learning rate                           
                               after each epoch.    
        - reg: Scalar giving regularization strength.    
        - num_iters: Number of steps to take when optimizing.   
        - batch_size: Number of training examples to use per step.    
        - verbose: boolean; if true print progress during optimization.  
        """
        num_train = X.shape[0]
        iterations_per_epoch = max(num_train / batch_size, 1)
        # Use SGD to optimize the parameters
        v_W2, v_b2 = 0.0, 0.0
        v_W1, v_b1 = 0.0, 0.0
        loss_history = []
        train_acc_history = []
        val_acc_history = []

        for it in xrange(1, num_epochs * iterations_per_epoch + 1):   
            X_batch = None   
            y_batch = None    
            # Sampling with replacement is faster than sampling without replacement.   
            sample_index = np.random.choice(num_train, batch_size, replace=True)   
            X_batch = X[sample_index, :]        # (batch_size,D)    
            y_batch = y[sample_index]           # (1,batch_size)   

            # Compute loss and gradients using the current minibatch 
            loss, grads = self.loss(X_batch, y=y_batch, reg=reg) 
            loss_history.append(loss)    

            # Perform parameter update (with momentum)    
            v_W2 = mu * v_W2 - learning_rate * grads['W2']    
            self.params['W2'] += v_W2   
            v_b2 = mu * v_b2 - learning_rate * grads['b2']    
            self.params['b2'] += v_b2   
            v_W1 = mu * v_W1 - learning_rate * grads['W1']    
            self.params['W1'] += v_W1   
            v_b1 = mu * v_b1 - learning_rate * grads['b1']  
            self.params['b1'] += v_b1    
            """    
            if verbose and it % 100 == 0:        
                print 'iteration %d / %d: loss %f' % (it, num_iters, loss) 
            """   
            # Every epoch, check train and val accuracy and decay learning rate.
            if verbose and it % iterations_per_epoch == 0:    
                # Check accuracy    
                epoch = it / iterations_per_epoch    
                train_acc = (self.predict(X_batch) == y_batch).mean()    
                val_acc = (self.predict(X_val) == y_val).mean()    
                train_acc_history.append(train_acc)    
                val_acc_history.append(val_acc)    
                print 'epoch %d / %d: loss %f, train_acc: %f, val_acc: %f' % 
                                    (epoch, num_epochs, loss, train_acc, val_acc)    
                # Decay learning rate    
                learning_rate *= learning_rate_decay    
                # Increase mu    
                mu *= mu_increase

        return {   
            'loss_history': loss_history,   
            'train_acc_history': train_acc_history,   
            'val_acc_history': val_acc_history,
        }

    def predict(self, X):    
        """  
        Inputs:    
        - X: A numpy array of shape (N, D) giving N D-dimensional data points to        
             classify.    
        Returns:    
        - y_pred: A numpy array of shape (N,) giving predicted labels for each of           
                  the elements of X. For all i, y_pred[i] = c means that X[i] is 
                  predicted to have class c, where 0 <= c < C.   
        """    
        y_pred = None    
        h1 = ReLU(np.dot(X, self.params['W1']) + self.params['b1'])    
        scores = np.dot(h1, self.params['W2']) + self.params['b2']    
        y_pred = np.argmax(scores, axis=1)    

        return y_pred

def ReLU(x):    
    """ReLU non-linearity."""    
    return np.maximum(0, x)

完成neural_net.py后,你需要检查代码编写是否正确(用two_layer_net.ipynb里的代码来check);check完之后,我们就需要优化超参数了。

PS: 由于文章字数达到上限,请到 CS231n : Assignment1(续)继续阅读。 :(|)

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
禁止转载,如需转载请通过简信或评论联系作者。
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 194,088评论 5 459
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 81,715评论 2 371
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 141,361评论 0 319
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 52,099评论 1 263
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 60,987评论 4 355
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 46,063评论 1 272
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 36,486评论 3 381
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 35,175评论 0 253
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 39,440评论 1 290
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 34,518评论 2 309
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 36,305评论 1 326
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 32,190评论 3 312
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 37,550评论 3 298
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 28,880评论 0 17
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 30,152评论 1 250
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 41,451评论 2 341
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 40,637评论 2 335

推荐阅读更多精彩内容