线性回归模型_1

Build a linear model from scratch

机器学习简介

机器学习的流程可以用这张图来表达。

幻灯片1.jpg

下面来解释下这张图。
目标:求得一个函数g(x),使得这个函数的输出与f(x)的输出越一致越好。
名词解释:
target function : 真实的函数。God's Function。预测正确率为100%的函数。
training data : 由target function产生的历史数据。
hypothesis set : 一个函数的集合。例如所有的一元线性函数集合,如 $y=w_0 + w_1x_1$的函数。
learning algorithm: 学习算法,学习算法包含两个部分,loss function定义和optimization求解两个部分。这两个部分是机器学习的核心,不同算法之间的区别主要是loss function不大一样。
g(x): g(x) 是我们真实求得的函数。
unknown distribution of x : 是x,包含了过去的数据,以及未来的数据。

线性回归例子

unknown distribution of x : $x\in R$
target function : $y=3+2x $, where $y \in R$
training data : ${x_{i}, y_{i}}$, where $i=1,2,3,...N$
hypothesis set : $y=w_0 + w_1x$
learning algorithm : 线性回归
loss function : $\sum_{i}(w_0 + w_1x_i - y_i)^2$
optimization : 梯度下降

举个生活中的例子,如果大家买过二手房,就知道买二手房之前是需要对房价进行评估的。我们知道有很多因素会影响房子的定价,例如房子的面积,房子的大小。

unkown distribution of x : 房子的面积
target function : y = 0.5 + 2x : 单位万,我们假设房价的价格是一平米两万,加上基础的费用例如房产证办理的费用,这些费用只是工本费,和房价没有关系。假设是3万。
training data : 例如,其中有一套房子的面积与房价为$x_{i} = 100, y_{i}=203$。我们有100个这样的数据N=100.

数学定义

下面我们对线性回归涉及到的一些参数进行数学化定义,方便求解。
我们用$x_{i}, y_{i}$表示第i个样本。
我们的Loss function定义为:
$L=\frac{1}{2N}\sum_{i=1}^N(w_0 + w_1x_i - y_i)^2$

这个函数是一个凸函数,所以是可以求得最小值的。一般而言,凸函数可以通过gradient descent进行求解。下面我们来求参数。gradient descent的具体概念后边再具体讲。

我们首先来求$w_0$的偏导
$dw_0= \frac{\partial L}{\partial w_0} = \frac{1}{N}\sum_{i=1}^N(w_0 + w_1x_i - y_i)$
$dw_1=\frac{\partial L}{\partial w_1} = \frac{1}{N}\sum_{i=1}^N(w_0 + w_1x_i - y_i)x_i$

整个梯度下降的过程为:

  • 随机初始$w_0, w_1$, 指定$\alpha$ = 1e-4, 迭代次数K=10
  • for t = 1,2,3,...K:
    按照上边的公式计算出$dw_0$与$dw_1$。
    $w_0 = w_0 - \alpha dw_0$
    $w_1 = w_1 - \alpha dw_1$

最小可行性代码

代码

import numpy as np
from matplotlib import pyplot as plt

### Generate Data

w_0_t = 0.5
w_1_t = 2

x = np.random.random(100)
y = w_0_t + w_1_t * x

### Parameter Initialize

K = 1000
alpha = 0.1
w_0 = 0
w_1 = 0

### Gradient Descent

for k in xrange(K):
    dw_0 = 0
    dw_1 = 0
    for i in xrange(len(y)):
        dw_0 += (w_0 + w_1 * x[i] - y[i])
        dw_1 += (w_0 + w_1 * x[i] - y[i]) * x[i]
    dw_0 /= len(y)
    dw_1 /= len(y)
    w_0 -= alpha * dw_0
    w_1 -= alpha * dw_1

Result 
print "expected {} {}  got {} {}".format(w_0_t, w_1_t, w_0, w_1)

Output

expected 0.5 2  got 0.501425451782 1.99737793288
最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 211,042评论 6 490
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 89,996评论 2 384
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 156,674评论 0 345
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 56,340评论 1 283
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 65,404评论 5 384
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 49,749评论 1 289
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 38,902评论 3 405
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 37,662评论 0 266
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 44,110评论 1 303
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 36,451评论 2 325
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 38,577评论 1 340
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 34,258评论 4 328
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 39,848评论 3 312
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 30,726评论 0 21
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,952评论 1 264
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 46,271评论 2 360
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 43,452评论 2 348

推荐阅读更多精彩内容