第4章 决策树

4.1 基本流程

决策树是一类常见的机器学习方法,是基于树结构来进行决策的,进行决策时,通常会进行一系列的判断或"子决策",决策过程中提出的每个判定问题都是对某个属性的"测试",每个测试的结果或是导出最终结论,或是导出进一步的判定问题,其考虑范围是在上次决策结果的限定范围之内。

一般的,一棵决策树包含一个根结点、若干个内部结点和若干个叶结点;

叶结点对应于决策结果,其他每个结点则对应于一个属性测试;

每个结点包含的样本集合根据属性测试的结果被划分到子结点中;

根结点包含样本全集;

从根结点到每个叶结点的路径对应了一个判定测试序列;

决策树学习的目的是为了产生一棵泛化能力强,即处理未见示例能力强的决策树,其基本流程遵循简单且直观的"分而治之"策略。如图

决策树的生成是一个递归过程,3种情形会导致递归返回:

( 1 )当前结点包含的样本全属于同一类别,无需划分。

( 2 )当前属性集为空,或是所有样本在所有属性上取值相同,无法划分,则把当前结点标记为叶节点,并将其类别设定为该结点所含样本最多的类别,是在利用当前结点的后验分布。

( 3 )当前结点包含的样本集合为空,不能划分,同样把当前结点标记为叶结点,且将其类别设定为其父结点所含样本最多的类别,是把父结点的样本分布作为当前结点的先验分布。

4.2 划分选择

选择最优划分属性,使结点的“纯度”越来越高。

一些符号表示:

样本集合为D;离散属性为a;分支结点个数为V;pk 为样本集合D中第k类样本所占的比例;Dv 为第v个分支结点包含了D中所有在属性a上取值为av  的样本

方法一:信息增益

划分选择:一般而言,信息增益越大,则意味着使用属性a来进行划分所获得的“纯度提升”越大。因此选择信息增益最大的属性作为划分属性。

信息增益缺点:对可取值数目较多的属性有所偏好

用属性a对样本集D进行划分所获得的“信息增益”为:

其中信息熵Ent(D)是度量样本集合纯度最常用的一种指标,定义为:

Ent(D)的值越小,则D的纯度越高。      

方法二:增益率

划分选择:先从候选划分属性中找出信息增益高于平均水平的属性,再从中选择增益率最高的。

增益率优点:能减少信息增益准则对可取值数目较多的属性偏好带来的不利影响

      缺点:增益率准则对可取值数目较少的属性有所偏好

增益率的定义:

其中IV(a)为属性a的固有值,定义为:

属性a的可能取值数目越多(即V越大),则IV(a)的值通常会越大。      

方法三:基尼指数

划分选择:基尼值Gini(D)反映了从数据集D中随机抽取两个样本,其类别标记不一致的概率,基尼值越小,则数据集D的纯度越高。因此选择那个使划分后基尼指数最小的属性作为最优划分属性。

基尼值定义:

基尼指数定义:

4.3 剪枝处理

剪枝是决策树学习算法对付“过拟合”的主要手段。

数据:

未剪枝的决策树:

方法一:预剪枝

预剪枝是指在决策树生成过程中,对每个结点在划分前先进行估计,若当前结点的划分不能带来决策树泛化性能提升,则停止划分并将当前结点标记为叶结点。

预剪枝决策树:

方法二:后剪枝

后剪枝则是先从训练集生成一棵完整的决策树,然后自底向上地对非叶结点进行考察,若将该结点对应的子树替换为叶结点带来决策树泛化性能提升,则将该子树替换为叶结点。

后剪枝决策树:

比较:

1.剪枝决策树通常比预剪枝决策树保留了更多的分支

2.一般情形下,后剪枝决策树的欠拟合风险很小,泛化性能往往优于预剪枝决策树。

3.后剪枝训练时间开销比未剪枝决策树和预剪枝决策树都要大得多。

4.4 连续与缺失值

1.连续值处理:连续属性离散化技术——二分法

给定样本集D和连续属性a,假定a在D上出现了n个不同的取值,将这些值从小到大进行排序,记为{a1,a2,...,an} .基于划分点t可将D分为子集D_{t}^+ D_{t}^- ,其中D_{t}^- 包含那些在属性a上取值不大于t的样本,D_{t}^+ 则包含那些在属性a上取值大于t的样本。对相邻的属性取值ai与ai+1来说,t在区间[ ai,ai+1)中取任意值所产生的划分结果相同。对连接属性a,考察包含n-1个元素的候选划分点集合:

把区间[ ai,ai+1 ) 的中位点作为候选划分点      

样本集D基于划分点t二分后的信息增益为Gain(D,a,t):

选择使Gain(D,a,t)最大化的划分点      

2. 缺失值处理

在属性值缺失的情况下进行划分属性选择:

给定划分属性,在样本在该属性上的值缺失的情况下对样本进行划分的方法:

4.5 多变量决策树

相当于对特征进行了一个线性的组合,之前的特征是单变量,组合之后单个结点相当于一个 线性的分类器。

©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 217,657评论 6 505
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 92,889评论 3 394
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 164,057评论 0 354
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 58,509评论 1 293
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 67,562评论 6 392
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 51,443评论 1 302
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 40,251评论 3 418
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 39,129评论 0 276
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 45,561评论 1 314
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 37,779评论 3 335
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 39,902评论 1 348
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 35,621评论 5 345
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 41,220评论 3 328
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 31,838评论 0 22
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 32,971评论 1 269
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 48,025评论 2 370
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 44,843评论 2 354

推荐阅读更多精彩内容

  • 从西瓜书和统计学习方法中学习了决策树的相关知识,同时在网上查找了树的知识点,最重要的是二叉树和树3种的遍历方式 树...
    皮皮大阅读 2,337评论 0 4
  • 关键字 信息增益:是特征选择中的一个重要指标,它定义为一个特征能够为分类系统带来多少信息,带来的信息越多,该特征越...
    andyham阅读 1,104评论 0 8
  • 1. 引言 决策树(decision tree)学习的目的是产生一课泛化能力强的树,在非叶节点进行属性测试,每个叶...
    Aptitude阅读 995评论 0 0
  • 决策树理论在决策树理论中,有这样一句话,“用较少的东西,照样可以做很好的事情。越是小的决策树,越优于大的决策树”。...
    制杖灶灶阅读 5,851评论 0 25
  • 4.1 基本流程 决策树(decision tree)是一类常见的机器学习方法,它是基于树结构来进行决策的,这是人...
    lammmya阅读 1,012评论 0 0