逻辑回归(Logistic Regression)

重点事情说三遍!!!

逻辑回归虽然名字叫回归,但它是正经的分类方法!分类方法!分类方法!


1. 逻辑回归

假如我们已经得到了线性模型y = wx + by的取值范围可以是(负无穷,正无穷)。但我们不想让它的值这么大,所以我们就将该值压缩到[0,1]。而sigmoid函数就有这个功能,函数表达式如下:

\frac{1}{{1 + {e^{ - x}}}}

将线性模型带入即可得到:h = \frac{1}{{1 + {e^{ - wx + b}}}}

2. 损失函数

通俗讲,损失函数就是衡量真实值和预测值之间差距的函数。我们希望这个函数越小越好。最小损失是0。

  • 当真值为1,模型的预测输出为1时,损失最好为0,预测为0是,损失尽量大。
  • 当真值为0,模型的预测输出为0时,损失最好为0,预测为1是,损失尽量大。

所以,我们尽量使损失函数尽量小,越小说明预测的越准确。

Andrew Ng在课程中给出了损失函数如下:

loss\left( {h\left( x \right),y} \right) = \left\{ {\begin{array}{*{20}{c}} { - \log \left( {h\left( x \right)} \right),y = 1}\\ { - \log \left( {1 - h\left( x \right)} \right),y = 0} \end{array}} \right.

整理一下就是:

loss\left( {h\left( x \right),y} \right) = - \left( {y\log \left( {h\left( x \right)} \right) + \left( {1 - y} \right)\log \left( {1 - h\left( x \right)} \right)} \right)

对于m个样本,总的损失函数J可表示为:

J\left( \theta \right) = - \frac{1}{m}\sum\limits_{i = 1}^m {\left[ {{y^i}\log \left( {h\left( {{x^i}} \right)} \right) + \left( {1 - {y^i}} \right)\log \left( {1 - h\left( {{x^i}} \right)} \right)} \right]}

上式基于最大似然估计推导而得,详细参见http://www.ai-start.com/ml2014/html/week3.html

3.梯度下降

根据损失函数,我们就可以通过梯度下降求解令其值最小的最优解。重点来了!!

{\theta _j}: = {\theta _j} - \alpha \frac{\partial }{{\partial {\theta _j}}}J\left( \theta \right)

求导可得:
{\theta _j}: = {\theta _j} - \alpha \frac{1}{m}\sum\limits_{i = 1}^m {\left( {h\left( {{x^i}} \right) - {y^i}} \right)x_j^i}

梯度下降算法之外的选择:

除了梯度下降算法以外,还有一些常被用来令代价函数最小的算法,这些算法更加复杂和优越,而且通常不需要人工选择学习率,通常比梯度下降算法要更加快速。这些算法有:共轭梯度(Conjugate Gradient),局部优化法(Broyden fletcher goldfarb shann,BFGS)和有限内存局部优化法(LBFGS)

4. 多分类问题

常用逻辑回归 (logistic regression)来解决二分类问题,当然也可以处理多类别分类问题,叫做"一对多" (one-vs-all) 的分类算法。

假如说你现在需要一个学习算法能自动地将邮件归类到不同的文件夹里,或者说可以自动地加上标签,那么,你也许需要一些不同的文件夹,或者不同的标签来完成这件事,来区分开来自工作的邮件、来自朋友的邮件、来自家人的邮件或者是有关兴趣爱好的邮件,那么,我们就有了这样一个分类问题:其类别有四个,分别用y=1y=2y=3y=4 来代表。

对于二元分类问题,我们的数据看起来可能是像这样:

image

对于一个多类分类问题,我们的数据集或许看起来像这样:

image

用3种不同的符号来代表3个类别,我们如何得到一个学习算法来进行分类呢?

我们现在已经知道如何进行二元分类,可以使用逻辑回归,对于直线或许你也知道,可以将数据集一分为二为正类和负类。用一对多的分类思想,我们可以将其用在多类分类问题上。

现在我们有一个训练集,好比上图表示的有3个类别,我们用三角形表示y=1 ,方框表示y=2,叉叉表示y=3 。我们下面要做的就是使用一个训练集,将其分成3个二元分类问题。

image

我们将多个类中的一个类标记为正向类(y=1),然后将其他所有类都标记为负向类,这个模型记作h_1(x)。接着,类似地第我们选择另一个类标记为正向类(y=2),再将其它类都标记为负向类,将这个模型记作h_2(x) ,依此类推。 最后我们得到一系列的模型简记为h_i(x)=p(y=i|x,\theta): 其中i=1,2,...,k

最后,在我们需要做预测时,我们将所有的分类机都运行一遍,然后对每一个输入变量,都选择最高可能性的输出变量即可。

5. 过拟合(overfit)

对于过拟合问题,常采用以下两种方法:
如果我们发现了过拟合问题,应该如何处理?

  1. 丢弃一些不能帮助我们正确预测的特征。可以是手工选择保留哪些特征,或者使用一些模型选择的算法来帮忙(例如PCA)
  2. 正则化。 保留所有的特征,但是减少参数的大小(magnitude)。
最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 211,884评论 6 492
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 90,347评论 3 385
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 157,435评论 0 348
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 56,509评论 1 284
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 65,611评论 6 386
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 49,837评论 1 290
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 38,987评论 3 408
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 37,730评论 0 267
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 44,194评论 1 303
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 36,525评论 2 327
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 38,664评论 1 340
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 34,334评论 4 330
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 39,944评论 3 313
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 30,764评论 0 21
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,997评论 1 266
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 46,389评论 2 360
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 43,554评论 2 349

推荐阅读更多精彩内容