机器学习系列(二十五)——正则化之Ridge回归与LASSO回归

模型正则化Regularization

解决过拟合问题或者说解决模型含有巨大方差误差问题,一个非常有效的方法是模型正则化。所谓模型正则化就是限制待求参数的大小。正则化有多种不同方法,本篇将介绍岭回归和LASSO回归两种常用的正则化。
以多元线性回归为例,在多元线性回归中,y与x的模型表达式为:
y=\theta_{0}+\theta_{1}x_{1}+\theta_{2}x_{2}+...+\theta_{n}x_{n}

对于一个样本X^{(i)}的预测值则为:
\widehat{y}^{(i)}=\theta_{0}+\theta_{1}X_{1}^{(i)}+\theta_{2}X_{2}^{(i)}+...+\theta_{n}X_{n}^{(i)}

模型最终要求解参数\theta=(\theta_{0},\theta_{1},...,\theta_{n})^{T}使得:
MSE=\sum_{i=1}^m(y^{(i)}-\widehat{y}^{(i)})^{2}

尽可能小。但是这样求得单个参数数值可能是非常大的,这样的模型面对全新数据将会有很大波动。于是为了模型的泛化能力,对参数\theta也加上限制,这就是正则化,此时目标函数转变为:
J(\theta)=MSE+\frac{\alpha}{2}\sum_{i=1}^{n}\theta_{i}^{2}

这种模型正则化方式称为岭回归Ridge Regression\alpha是一个新的超参数,可以理解为正则化部分占整个待优化函数的权重。


岭回归与LASSO回归

岭回归

以一个具体的例子感受一下模型正则化的作用,生成模拟数据集:

np.random.seed(42)
x = np.random.uniform(-3,3,size=100)
X = x.reshape(-1,1)
y = 0.5 * x +3 +np.random.normal(0,1,size=100)

该模拟数据集服从y=0.5x+3,加入了标准高斯噪音,首先不使用正则化用20次幂多项式回归训练模型:

from sklearn.preprocessing import PolynomialFeatures
from sklearn.pipeline import Pipeline
from sklearn.preprocessing import StandardScaler
from sklearn.linear_model import LinearRegression

lin_reg = LinearRegression()
def PolynomialRegression(degree):
    '''传入步骤对应的类组成多项式回归函数'''
    return Pipeline([
        ("poly",PolynomialFeatures(degree=degree)),
        ("std_scaler",StandardScaler()),
        ("lin_reg",lin_reg)
    ])

from sklearn.model_selection import train_test_split
X_train,X_test,y_train,y_test = train_test_split(X,y,random_state=666)

from sklearn.metrics import mean_squared_error

poly20_reg = PolynomialRegression(degree=20)
poly20_reg.fit(X_train,y_train)

y20_predict = poly20_reg.predict(X_test)
mean_squared_error(y_test,y20_predict)

均方误差值:

均方误差值MSE
X_plot = np.linspace(-3,3,100).reshape(100,1)
y_plot = poly20_reg.predict(X_plot)

plt.scatter(x,y)
plt.plot(X_plot,y_plot,color='r')#有序排序后绘制曲线
plt.axis([-3,3,-1,6])
plt.show()

回归方程图示:

20次幂无正则化

下面同样使用degree=20的多项式加入正则化项进行岭回归,为了调用方便,封装岭回归函数和做图函数:

from sklearn.linear_model import Ridge
def RidgeRegression(degree,alpha):
    '''传入步骤对应的类组成岭回归函数'''
    return Pipeline([
        ("poly",PolynomialFeatures(degree=degree)),
        ("std_scaler",StandardScaler()),
        ("ridge_reg",Ridge(alpha=alpha))
    ])

'''绘图函数封装'''
def plot_model(model):
    X_plot = np.linspace(-3,3,100).reshape(100,1)
    y_plot = model.predict(X_plot)

    plt.scatter(x,y)
    plt.plot(X_plot,y_plot,color='r')#有序排序后绘制曲线
    plt.axis([-3,3,-1,6])
    plt.show()
plot_model(poly20_reg)

使用\alpha=0.0001的岭回归:

ridge1_reg = RidgeRegression(20,0.0001)
ridge1_reg.fit(X_train,y_train)

y1_predict = ridge1_reg.predict(X_test)
mean_squared_error(y_test,y1_predict)
0.0001岭回归MSE
plot_model(ridge1_reg)
0.0001岭回归

可以看到\alpha=0.0001的岭回归均方误差比没有正则化的要优秀很多,图像中也已经没有特别离谱的点。当然可以修改\alpha的值来进一步优化结果,使用\alpha=1的岭回归:

1岭回归MSE
1岭回归

使用\alpha=100的岭回归:

100
100

使用\alpha=10000的岭回归:

10000
10000

可以看到随着\alpha的增加,回归曲线越来越平滑,最后甚至成为与x轴平行的直线,这是因为当权重加到非常大时,损失函数J里起决定作用的已经是正则项了,为了损失函数最小自然是所有\theta都取0,于是回归曲线就成为与x轴平行的直线了。实际中要调节超参数\alpha的值,让模型尽可能优秀,本例中岭回归使用过的\alpha里可以发现\alpha=1最优。

LASSO回归

LASSO回归全称是Least Absolute Shrinkage and Selection Operator Regression,相应的损失函数表达式为:

J(\theta)=MSE+\frac{\alpha}{2}\sum_{i=1}^{n}|\theta_{i}|

LASSO的特性使得它倾向于使一部分\theta变为0,所以可以作为特征选择用,系数为0的特征说明对表达模型几乎没用。但也因此LASSO回归有可能对一些特征存在误判,所以从准确度上来说岭回归要更加准确,但是当特征特别多时使用岭回归计算将特别消耗计算资源,耗时较多,所以如果在特征特别多的情况下,比如多项式回归次幂为100,一般使用LASSO回归,LASSO可以有效降低特征量加快运算速度。
接下来对上面的数据例子使用LASSO回归,首先定义LASSO回归函数:

from sklearn.linear_model import Lasso
def LassoRegression(degree,alpha):
    '''传入步骤对应的类组成LASSO回归函数'''
    return Pipeline([
        ("poly",PolynomialFeatures(degree=degree)),
        ("std_scaler",StandardScaler()),
        ("ridge_reg",Lasso(alpha=alpha))
    ])

使用\alpha=0.01的LASSO回归:

lasso1_reg = LassoRegression(20,0.01)
lasso1_reg.fit(X_train,y_train)

y1_predict =lasso1_reg.predict(X_test)
mean_squared_error(y_test,y1_predict)
0.01
plot_model(lasso1_reg)
0.01

可以看到在LASSO回归中\alpha=0.01时,回归曲线已经非常平缓了,这也正是LASSO回归的优势,在特征选择的作用下能很快地求解模型。
使用\alpha=1的LASSO回归:

1LASSO
1LASSO

\alpha=1时已几乎成为平行于x轴的直线。


L1,L2弹性网络

比较岭回归和LASSO回归的正则项部分可以发现,其实它们分别是MSE和MAE的一种变形,本质上是还是一种距离(误差)的衡量。机器学习中有很多这样的名词,虽然名称不同但背后的数学原理是一致的。
在这儿引入在knn算法中提到过的闵可夫斯基距离Minkowski Distance,明氏距离中当p=1时就是曼哈顿距离;p=2时就是欧氏距离。相应地有L_{p}范数:
||x||_{p}=(\sum_{i=1}^{n}|x_{i}|^{p})^{\frac{1}{p}}

于是对于Ridge回归,类比范数的定义,我们叫它L2正则项;对于LASSO回归,我们称之为L1正则项;相应地,有Ln正则项。不过实际中我们很少使用大于2的正则项。还有一个L0正则项,对于L0正则化,我们希望\theta的个数尽可能的少,即:要使非零的\theta的个数尽可能少,这是个离散最优化问题,同样我们也很少使用L0正则化,因为求解它是一个NP难问题,实际中往往用L1的特征选择来代替L0。
综合L1正则化和L2正则化,得到弹性网Elastic Net:
J(\theta)=MSE+r\alpha\sum_{i=1}^{n}|\theta_{i}|+\frac{1-r}{2}\alpha\sum_{i=1}^{n}\theta_{i}^{2}

它同时具有L1正则和L2正则的优势,即能准确地计算又能进行特征选择加快计算速度,因此在实际中经常使用弹性网络进行正则化。

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 214,951评论 6 497
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 91,606评论 3 389
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 160,601评论 0 350
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 57,478评论 1 288
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 66,565评论 6 386
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 50,587评论 1 293
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 39,590评论 3 414
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 38,337评论 0 270
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 44,785评论 1 307
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 37,096评论 2 330
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 39,273评论 1 344
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 34,935评论 5 339
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 40,578评论 3 322
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 31,199评论 0 21
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 32,440评论 1 268
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 47,163评论 2 366
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 44,133评论 2 352

推荐阅读更多精彩内容