introduction to machine learning-1

Course Requirements and Grading

Lab(30%)

  • Python

  • Synthetic data

  • 2 deliverables, distributed over moodle


Theory exercises(0/20)

  • close to the end(early December)

Final exam(70%)

  • Theory questions(judgement-oriented)

  • Simulate running algorithms by hand


Meeting hours

  • Office:104B, 68-72 Gower street

  • Meeting hours: Tuesday, 14:00-15:00


Prerequisites:

Linear Algebra; Calculus; Probability; Programming


Machine Learning

data -> maodel ->prediction


Least squares model

least squares solution for linear regression

D​: probleim dimension, e.g. 1D, 2D( can visualize)

N​: training set size

Training set: input-output pairs S=\{\boldsymbol x_{i},y_{i}\},i=1,\dots,N​ where,\boldsymbol x_{i}=\{x_{i1},\dots,x_{iD}\}^{T}\in \mathbb{R}^{D},y_{i}\in \mathbb{R}​,   generally can be \boldsymbol x​

\boldsymbol w​: weight, \boldsymbol w=\{w_{1},\dots,w_{D}\}^{T}\in \mathbb{R}^{D}​

\epsilon_{i}​: noise

other notation:

X=\{\boldsymbol{x_{1}, x_{2}, \dots, x_{N}} \}^{T}=\{\boldsymbol{x_{1}^{T}; x_{2}^{T}; \dots; x_{N}^{T}} \}​

Remark: ";" represent column vector

\boldsymbol y=\{y_{1},\dots,y_{N}\}^{T}​

\boldsymbol \epsilon=\{\epsilon_{1},\dots,\epsilon_{N} \}^{T}​


linear regression model

\boldsymbol y=X\boldsymbol w+\epsilon \quad or \quad \boldsymbol y^{T}=\boldsymbol w^{T}X^{T}+\boldsymbol \epsilon^{T}

that is y_{i}=\boldsymbol x_{i}^{T} \boldsymbol w +\epsilon_{i},\ \ \ or \ \ \ y_{i}=\boldsymbol w^{T}\boldsymbol x_{i}+\epsilon_{i},i=1,\dots,N

Loss function: L(w)=\sum_{i=1}^{N}(y_{i}-\boldsymbol w^{T}x_{i})^{2}

goal: \min\limits_{w} \ L(w)

Least squares solution for linear regression: w^{*}=(X^{T}X)^{-1} X^{T}\boldsymbol y


Generalized linear regression model

\boldsymbol x \rightarrow [\boldsymbol \phi(\boldsymbol x)]=[ \phi_{1}(\boldsymbol x),\dots,\phi_{M}(\boldsymbol x) ]^{T} where \phi_{i}(\boldsymbol x),i=1,\dots,M can be other form besides x_{i} ( if x_{i}, and M=D, it is just the linear regression model )

If D=1,\ \ and\ \ \phi_{i}(x)=x^{i-1}, then it is k-th degree ploynomial fitting

If the highest order of \phi_{i}(\boldsymbol x) is 2, then it is second-order polynomials fitting

set \boldsymbol x \rightarrow [\boldsymbol \phi(\boldsymbol x)]=[ \phi_{1}(\boldsymbol x),\dots,\phi_{M}(\boldsymbol x) ]^{T} where \phi_{i}(\boldsymbol x),i=1,\dots,M can be other form besides x_{i} ( if x_{i}, and M=D, it is just the linear regression model )

If D=1,\ \ and\ \ \phi_{i}(x)=x^{i-1}, then it is k-th degree ploynomial fitting
If the highest order of \phi_{i}(\boldsymbol x) is 2, then it is second-order polynomials fitting
set \Phi=[\boldsymbol\phi(\boldsymbol{x_{1}})^{T};\boldsymbol\phi(\boldsymbol{x_{2}})^{T};\dots;\boldsymbol\phi(\boldsymbol{x_{N}})^{T}]
then the model is:
\boldsymbol y=\Phi\boldsymbol w+\epsilon
Least squares solution for generalized linear regression: w^{*}=(\Phi^{T}\Phi)^{-1} \Phi^{T}\boldsymbol y


approximations

If N>D (e.g. 30 points, 2 dimensions): overdetermined system
If N<D (e.g. 30 points, 3000 dimensions): underdetermined system (overfitting)


How to control complexity( Regularized linear regression)

1.use vector norm (L2, L1, Lp norm) to measure residual vector
Remark: different norm represent different regularized linear regression, here we use L2 norm

2.rewrite loss function: L(\boldsymbol{w})=||\boldsymbol{y}-X\boldsymbol{w}||^{2}+\lambda||\boldsymbol{w}||^{2}
this is ridge regression, a.k.a, L2-regularized linear regression
Remark: \lambda is "hyperparameter", select \lambda with cross-validation(use cross-validation for diff values of \lambda -- pick value minimizes cross-validation error)

Cross-validation: least glorious, most effective of all methods (teacher said)

3.Least squares solution for ridge regression: w^{*}=(X^{T}X+\lambda\boldsymbol{I})^{-1} X^{T}\boldsymbol y

©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 211,265评论 6 490
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 90,078评论 2 385
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 156,852评论 0 347
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 56,408评论 1 283
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 65,445评论 5 384
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 49,772评论 1 290
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 38,921评论 3 406
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 37,688评论 0 266
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 44,130评论 1 303
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 36,467评论 2 325
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 38,617评论 1 340
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 34,276评论 4 329
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 39,882评论 3 312
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 30,740评论 0 21
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,967评论 1 265
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 46,315评论 2 360
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 43,486评论 2 348

推荐阅读更多精彩内容

  • 埃蒙看着莱菲西亚。 莱菲西亚看着埃蒙。 埃蒙叹了口气:“佣兵关系。” 莱菲西亚的眼睛里猛的一亮随即暗了下去:“只有...
    荣阿不听话阅读 354评论 0 1
  • 作者是美国心理学博士,盖伊·温奇博士,他在2011年出版了畅销书《嘎吱作响的车轮》,讨论有效的人际关系沟通方法,这...
    知识的幻影阅读 3,372评论 0 0
  • 一:《丝巾,女人妩媚的风景》 天气预报说,冷空气袭广东而来了,气温由原来的二十多度,降到十多度,前两天还能穿单衣,...
    一泓夜雨阅读 158评论 1 4
  • 今天是分手的第三天,想你的第二天,想起你很多次,但今天晚上没有眼泪,明天还有课,就不说太多了,知道你在简书上关注了...
    媛子_3641阅读 157评论 0 0