支持向量机(一)

。1.1概述

    假如有一组两种标签的数据,两种标签分布用圆和方块来显示,支持向量机的分类方法是在这组数据分布中找到一个超平面作为决策边界,使模型在数据上的分类误差尽量接近于小,尤其是在未知数据集上的分类误差(泛化误差)尽量小

 注解:超平面:在几何中,超平面是一个空间的空间,它的维度比所在空间小一维的空间, 如果数据空间本身是三维的,则其超平面是二维平面,而如果数据空间本身是二维的,则其超平面是一维的直线。在二分类问题中,如果一个超平面能够将数据划分为两个集合,其中每个集合中包含单独的一个类别,我们就说这个超平面是数据的“决策边界”。

    如果我们能找到决策边界,使得决策边界一侧的所有点在分类中属于一个类,而另一侧的所有点属于另一个分类,就可以把分类问题变成探讨每个样本对于决策边界而言的相对位置。

    比如上面的两种标签数据,很容易就在圆和方块中间画出一条线,并让所有落在直线左边的样本被分类为方块,右边的样本被分类为圆,如果把数据当作我们的训练集,只要直线的一边只有一种类型的数据,就没有分类错误,我们的训练误差就会为0。但是,对于一个数据集来说,让训练误差为0的决策边界可以有无数条。但在此基础上,我们无法保证这条决策边界在未知数据集(测试集)上的表现也会优秀。对于现有的数据集来说,我们有B_{1} B_{2} 两条可能的决策边界。我们可以把决策边界B_{1} 向两边平移,直到碰到离这条决策边界最近的方块和圆圈后停下,形成两个新的超平面,分别是b_{11} b_{12} ,并且我们将原始的决策边界移动到b_{11} b_{12} 的中间,确保B_{1} b_{11} b_{12} 的距离相等。在b_{11} b_{12} 中间的距离,叫做B_{1} 这条决策边界的边际(margin),通常记作d。对B_{2} 也执行相同的操作,然后来对比两个决策边界。现在两条决策边界右边的数据都被判断为圆,左边的数据都被判断为方块,两条决策边界在现在的数据集上的训练误差都是0,没有一个样本被分错。

    为了简便,b_{11} b_{12} 称为“虚拟超平面”,这两个超平面是由原来的决策边界向两边移动,直到碰到距离原来的决策边界最近的样本后才停下而行程的超平面。

    接下来加入与原本的数据集分布相同的参数样本(红色样本),平面中的样本变多后,对于B_{1} 而言,依然没有分错任何样本,这条决策边界上的泛化误差也是0,对于B_{2} 而言,却有三个方块的样本被误分为圆的,两个圆误分为方块,这条决策边界上的泛化误差就远大于B_{1} ,所以拥有更大边际的决策边界在分类中的泛化误差更小,这一点可以由结构风险最小化定律来证明(SRM)。如果边际很小,则任何轻微扰动都会对决策边界的分类产生很大的影响。边际很小的情况,是一种模型再训练集上表现很好却在测试集上表现很糟糕的情况,所以会过合,所以我们在找寻决策边界的时候,希望边际越大越好。

    支持向量机就是通过找出边际最大的决策边界,来对数据进行分类的分类器,因此,支持向量分类器又叫最大边际分类器。

1.2支持向量机原理的三层理解

    目标是“找出边际最大的决策边界”,这是一个最优化问题,二最优化问题往往和损失函数联系在一起,SVM也是通过最小化损失函数求解一个用于后续模型使用的主要信息:决策边界

sklearn中支持向量机,注意,除了特别表明是线性的两个类LinearSVC和LinearSVR之外,其他的所有类都是同时支持线性和非线性的。NuSVC和NuSVC可以手动调节支持向量的数目,其他参数都与最常用的SVC和SVR一致。注意OneClassSVM是无监督的类。

1.3 线性SVM用于分类的原理

    假设现在数据中总计有N个训练样本,每个训练样本i可以表示为(x_{i}, y_{i})(i=1,2,...N),其中x_{i} (x_{1i} ,x_{2i}...x_{ni}  )^T这样的一个特征向量,每个样本总共含有n个特征,二分两类标签y_{i}的取值{-1,1}。

    如果n=2,则有i=(x_{1i} ,x_{2i},y_{i} )^T,分别由特征向量和标签组成,此时的二维平面上,以x_{2} 为横坐标,x_{1} 为纵坐标,y为颜色,来可视化我们所有的N个样本:

    让所有紫色点的标签为1,红色点的标签为-1。我们要在这个数据集上寻找一个决策边界,在二维平面上,决策边界(超平面)就是一条直线。二维平面上的任意一条线可以被表示为:x_{1}  = ax_{2}+b ,将表达式变换一下

[a, -1]就是我们的参数向量 w,x 就是我们的特征向量, b是我们的截距

    这个表达式跟线性回归的公式很相似:y(x) =\theta  ^Tx+\theta _{0} ,线性回归中等号的一边是标签,回归过后会拟合出一个标签,而决策边界的表达式中却没有标签的存在,全部是由参数,特征和截距组成的一个式子,等号的一边是0。在一组数据下,给定固定的w和b,这个式子就可以是一条固定直线,在w和b不确定的状况下,这个表达式w ^Tx+b=0就可以代表平面上的任意一条直线。如果在w和b固定时,给定一个唯一的x的取值,这个表达式就可以表示一个固定的点。在SVM中,我们就使用这个表达式来表示我们的决策边界。我们的目标是求解能够让边际大化的决策边界,所以我们要求解参数向量w和b截距 。如果在决策边界上任意取两个点 w_{a}  和w_{b} ,并带入决策边界的表达式,则有:w ^Tx_{a} +b=0w ^Tx_{b} +b=0,两式相减,可以得到w ^T(x_{a} -x_{b} )+b=0    

    一个列向量的转置乘以另一个列向量,可以获得两个向量的点积(dot product),表示为<w * (x_{a} -x_{b} )>。两个向量的点机为0表示两个向量的方向互相垂直,x_{a} 和x_{b} 是一条直线上两个点,相减后得到的向量方向是由x_{b} 指向x_{a} ,所以x_{a} -x_{b} 的方向是平行于它们所在的直线(决策边界),而w与x_{a} -x_{b} 相互垂直,所以参数向量w的方向必然垂直于决策边界。此时就有决策边界,任意一个紫色的点x_{p} 就可以被表示为:w*x_{p} +b = p,由于紫色的点所代表的标签y是1,所以我们规定p>0.同样,对于任意一个红色的点x_{r} ,可以表示为w*x_{r} +b = r,红色的点所代表的标签y是-1,所以我们规定r<0。如果我们有新的测试数据 x_{t} ,则的x_{t} 标签就可以根据以下式子来判定:

    决策边界的两边要有两个超平面,这两个超平面在二维空间中就是两条平行线(虚线超平面),而它们之间的距离就是边际d。而决策边界位于这两条线的中间,所以这两条平行线必然是对称的,这两条平行线可以表示为:w*x+b=kw*x+b=-k,两个表达式同时除以k,则可以得到:w*x+b=1,w*x+b=-1,这就是平行于决策边界的两条线的表达式,表达式两边的1和-1分别表示了两条平行于决策边界的虚线到决策边界的相对距离,此时可以让这两条线分别过两类数据中距离我们的决策边界最近的点,这些点被称为“支持向量”,而决策边界用于在这两条线的中间,所以可以被调整,令紫色类的点为x_{p} ,令红色类的点为x_{r} ,则有w*x_{p} +b=1,w*x_{r} +b=-1

两个式子相减则有:w*(x_{p}-x_{r}  ) =2

    如图所示,(x_{p}-x_{r}  )可以表示为两点之间的连线,而边际d是平行于w的,所以我们现在,相当于是得到了三角型中的斜边,并且知道一条直角边的方向。在线性代数中,我们有如下数学性质:

    向量b除以自身的模长||b||可以得到b方向上的单位向量。

    向量a乘以向量b方向上的单位向量,可以得到向量a在向量b方向上的投影的长度。

    所以,我们另上述式子两边同时除以 ,则可以得到:\frac{w*(x_{p}-x_{r}  )}{||w||} =\frac{w*}{||w||}*(x_{p}-x_{r}  )= \frac{2}{||w||}  ,即d= \frac{2}{||w||}  ,我们要求最大边界所对应的决策边界,那就是要最大化d,就是求解w的最小值。极值问题可以相互转化, 把求解w的最小值转化为求解以下函数的最小值:


    之所以要在模上加平方是因为模长的本质是一个距离,所以它是一个带根号的存在,我们对它取平方是为了消除根号(其实模长的本质是向量w的l2范式)

    我们的两条虚线表示的超平面,是数据边缘所在的点。所以对于任意样本i,我们可以把决策函数写作:

                                                    w\cdot x_{i} +b\geq 1     if    y_{i} =1

                                                    w\cdot x_{i} +b\leq -1    if   y_{i} =-1

    整理一下,把两个式子整合成:   y_{i} (w\cdot x_{i}+b )\geq 1,i=1,2...N,这个式子被称为“函数间隔”,将函数间隔作为条件附件到f(w)上,就得到了SVM的损失函数的最初形态:

1.4 函数间隔与几何间隔

重要定义:函数间隔与几个间隔

对于给定的数据集T和超平面(w,b),定义超平面(w,b)关于样本点(x_{i},y_{i}  )的函数间隔为:\gamma _{i}  = y_{i} (w\cdot x_{i}+b) ,这是虚线超平面的表达式整理后得到的式子,函数间隔可以表示分类预测的正确性以及确信度,再在这个函数间隔的基础上除以w的模长||w||来得到几何间隔:\gamma _{i}  = y_{i} (\frac{w}{||w||} \cdot x_{i}+\frac{b}{||w||} ) ,几何间隔的本质就是点x_{i} 到超平面(w,b),即到我们的决策边界的带符号的距离(signed distance)

    为什么几何间隔能够表示点到决策边界的距离?如果理解点到直线的距离公式就可以很简单的理解这个式子,对于平面上的一个点(x_{0} ,y_{0} )和一条直线ax+by+c=0,我们可以推导出点到直线的距离为:distance = \frac{|ax_{0}+by_{0}+c  |}{\sqrt{x^2+b^2  } } ,其中[a,b]就是直线的参数向量w,而\sqrt{x^2+b^2  }其实就是参数w的模长||w||。在几何间隔中,y_{i} 的取值是{-1,1},所以并不影响整个表达式的大小,只是影响了方向,而wx+b=0是决策边界,所以直线带入x_{i} 后再除以参数向量的模长,就可以得到点x_{i} 到决策边界的距离。

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 212,454评论 6 493
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 90,553评论 3 385
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 157,921评论 0 348
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 56,648评论 1 284
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 65,770评论 6 386
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 49,950评论 1 291
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 39,090评论 3 410
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 37,817评论 0 268
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 44,275评论 1 303
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 36,592评论 2 327
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 38,724评论 1 341
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 34,409评论 4 333
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 40,052评论 3 316
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 30,815评论 0 21
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 32,043评论 1 266
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 46,503评论 2 361
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 43,627评论 2 350

推荐阅读更多精彩内容