Boosting原理

xgboost
xgboost

集成学习

集成学习是什么?集成学习通过训练多个分类器,然后将其组合起来,从而达到更好的预测性能,提高分类器的泛化能力。

集成学习
集成学习

目前集成学习主要有3个框架:bagging,boosting,stacking。

先看第一个bagging:bagging的时候每个分类器都随机从原样本中做有放回的采样,训练基模型,最后根据多个基模型的预测结果产出最终的结果。bagging的一种常见方法是我们训练好多模型:SVM, 决策树,DNN等,然后将最后再用一个lr做组合。

bagging
bagging

第二个boosting:boosting每次对训练集进行转换后重新训练出基模型,最后再综合所有的基模型预测结果。主要算法有 AdaBoost 和 GBDT。


boosting
boosting

第3个stacking:stacking的思想是将每个基模型的输出组合起来作为一个特征向量,重新进行训练。


stacking
stacking

在学习集成学习中,我们需要知道一个非常重要的概念:Diversity,我们希望每个基模型都不尽相同,这样子最后的预测结果才能好。

xgboost详解

假设我们最后的预测函数形式如下:

ensemble
ensemble

最终的预测结果由K颗树集成所成,接着我们定义要优化的目标函数:
loss
loss

目标函数由两部分组成:第一部分是训练损失,第二部分则是每颗树的复杂度,复杂度的衡量有多种方法:树的深度,内部节点个数,叶子节点个数(T),叶节点分数(w),xgboost使用了:
正则
正则

我们将预测函数稍微做个展开:
predict
predict

第t次迭代后,模型的预测等于前t-1次的模型预测加上第t棵树的预测,此时的目标函数:
目标函数
目标函数

此时我们将目标函数做二阶泰勒展开:
泰勒展开
泰勒展开

此时第一项是一个常数项,重新整理目标函数得到:
整理后
整理后

上式中误差函数和正则项分别是:
image_1c0anp25fcq81ptv8kr102sm8c16.png-20.5kB
image_1c0anp25fcq81ptv8kr102sm8c16.png-20.5kB

将其带入目标函数,并整理得到:
image_1c0anptuh1bf31t8e15i711ir1hji1j.png-40.5kB
image_1c0anptuh1bf31t8e15i711ir1hji1j.png-40.5kB

此时我们考虑将对样本的累加和对叶子节点的累加统一到节点的累加,定义下面的函数:
image_1c0ans58m15bo13m7cofcdqhvo20.png-63kB
image_1c0ans58m15bo13m7cofcdqhvo20.png-63kB

此处我们假设了树的结构是固定的,于是对目标函数求导后可得:


image_1c0anuli27rp1g6hjn4so316bb2d.png-29.8kB
image_1c0anuli27rp1g6hjn4so316bb2d.png-29.8kB

到这一步:我们已经推导出其最优的叶节点分数以及对应的最小损失值,下一步需要解决的问题是:怎么确定树结构。

我们尝试着计算分裂后树的增益,选择增益最大的点进行分裂,在计算增益上,ID3算法采用信息增益,C4.5算法采用信息增益比,CART采用Gini系数,xgboost采用:


image_1c0ao4v6i1flg10ms1nbc1k37ecq2q.png-8.4kB
image_1c0ao4v6i1flg10ms1nbc1k37ecq2q.png-8.4kB

分裂前后的增益定义:


image_1c0ao5hfrgkm1occ12n75qf1h1937.png-15.1kB
image_1c0ao5hfrgkm1occ12n75qf1h1937.png-15.1kB

再有的优化就是对于怎么快速计算树结构了,网上内容很多,不再详述了。

adaboost 推导

adaboost
adaboost

此时我们对损失函数对参数beta求导,可得


image_1c0d3m16a1i191gc4te81hsqho141.png-44.9kB
image_1c0d3m16a1i191gc4te81hsqho141.png-44.9kB

gbdt

梯度提升算法:首先给定一个损失函数L(y,F(x)),其输入是训练对:(x1,y1),(x2,y2),...,(xn,yn),目标是找到最优的F(x),使得损失函数L最小,按照传统梯度下降的方法,我们会将训练数据(xi,yi)带入,然后求L对参数的偏导,再用负梯度进行参数更新:

image_1c0fndee91aoh1blp7nsq2pupi4e.png-51.2kB
image_1c0fndee91aoh1blp7nsq2pupi4e.png-51.2kB

这么做的一个前提是我们需要保证损失函数对F可微,F对参数 $\theta$可微,第二个可微可以说比较困难,于是我们退而求此次直接求对于F的梯度(函数空间):
image_1c0fo4iuf153a1pl0i021f2f15u19.png-18.5kB
image_1c0fo4iuf153a1pl0i021f2f15u19.png-18.5kB

此时f可以用梯度下降的方法,求损失函数在$F_{m-1}$的导数,可得到:
image_1c0fo70ng15ph1924lmfmkh1a1fm.png-12.9kB
image_1c0fo70ng15ph1924lmfmkh1a1fm.png-12.9kB

此时我们假设$F_{m-1}$和$y_i$都是已知的,则只有$\gamma_m$是未知的,通过一维的线性搜索就可以找到最优的值:
image_1c0fo9ndt16o44m719h8mip173113.png-16.2kB
image_1c0fo9ndt16o44m719h8mip173113.png-16.2kB

通过上面的讲述,我们将通过(x,y)来求未知参数$\theta$,转换为通过$(x,\nabla_f(y_i,F_{m-1}))$来预估第m颗树$f$,整个过程总结如下:


image_1c0fp3vem14b1vot1un2k21p712d.png-91.3kB
image_1c0fp3vem14b1vot1un2k21p712d.png-91.3kB

下一篇将通过代码来详细介绍本篇的算法,尽请期待。

参考

使用 sklearn 进行集成学习——理论
GBDT算法原理与系统设计简介
小象学院《机器学习》课程

©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 195,719评论 5 462
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 82,337评论 2 373
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 142,887评论 0 324
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 52,488评论 1 266
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 61,313评论 4 357
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 46,284评论 1 273
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 36,672评论 3 386
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 35,346评论 0 254
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 39,644评论 1 293
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 34,700评论 2 312
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 36,457评论 1 326
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 32,316评论 3 313
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 37,706评论 3 299
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 28,990评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 30,261评论 1 251
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 41,648评论 2 342
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 40,859评论 2 335

推荐阅读更多精彩内容