SGD梯度下降拟合线性回归

利用梯度下降拟合一元回归学习笔记

让我们以直线 y=2x+1 附近作散点图,误差内上下浮动。

散点图

因为开始时,截距\theta_{0}和斜率\theta_{1}初始都为0,绿点为初始点的分布。所以将其描点如图所示。

初始状态

简单用三幅图表示学习过程

学习中
最终
连线图

这里用到了两个公式:
①一元线性表达式:h_{\theta}(x)=\theta_{0}+\theta_{1} x \tag{1}
②代价函数:
J\left(\theta_{0}, \theta_{1}\right)=\frac{1}{2 m} \sum_{i=1}^{m}\left(h_{\theta}\left(x^{(i)}\right)-y^{(i)}\right)^{2} \tag{2}
很明显,公式①一元线性表达式就是我们常用的 y = b + ax \tag{3}

我们的目的是使代价函数尽可能的小:\underset{\theta_{0}, \theta_{1}}{\operatorname{minimize}} J\left(\theta_{0}, \theta_{1}\right)\tag{4}

接下来我们开始工作,进行梯度下降用到了求偏导。当对其进特征,也就是对\theta_{0},\theta_{1}求偏导。每次求偏导后更新公式为

\theta_{0} :=\theta_{0}-\alpha \frac{1}{m} \sum_{i=1}^{m}\left(h_{\theta}\left(x^{(i)}\right)-y^{(i)}\right)\tag{5}

\theta_{1} :=\theta_{1}-\alpha \frac{1}{m} \sum_{i=1}^{m}\left(h_{\theta}\left(x^{(i)}\right)-y^{(i)}\right) \cdot x^{(i)}\tag{6}

那么将公式(1) 一元元线性表达带入式子(5) 得到式子(7):

\theta_{0} :=\theta_{0}-\alpha \frac{1}{m} \sum_{i=1}^{m}\left((\theta_{0}+\theta_{1} x)-y^{(i)}\right)\tag{7}

在式(7)中,我们将(\theta_{0}+\theta_{1} x)-y^{(i)} 抽取出来,暂时定义y^{(d)} = \theta_{0}+\theta_{1} x,这个就是我们正在变化的绿点,其横坐标x不会变化,这样就很明显,每一个蓝点都有对应的绿点在其垂直于x轴的连线上,且绿点通过学习不断的变动垂直距离上的位置,我们把公式(7)换一种表达方式,引入y^{(d)}

\theta_{0} :=\theta_{0}-\alpha \frac{1}{m} \sum_{i=1}^{m}\left(y^{(d)}-y^{(i)}\right)\tag{8}

这样一看,我们很清楚的就能得到平均垂直距离,也就是y^{(d)}随之每次学习,\theta_{0}一点一点的变大,蓝点与绿点的垂直距离越来越小,\theta_{0}的变化也逐渐变小直至稳定,\theta_{1}同理。

代码如下

import numpy as np
import matplotlib.pyplot as plt
import random

X = np.random.random(100).reshape(100,1)   #随机生成100行1列的随机值
Y = np.zeros(100).reshape(100,1)    
for i , x in enumerate(X):
    val = x * 2 + 1 + random.uniform(-0.2,0.2)
    Y[i] = val                     # 令y的值随机偏动在范围内

plt.figure()
plt.scatter(X,Y,color='g',s=10)         #X1 为横坐标轴值,y为纵坐标值
# plt.plot(X,2 * X + 1,color='r',linewidth=2.5,linestyle='-')
plt.show()

执行梯度下降以进行线性回归的代码段

#最小二乘法,用来计算损失
def compute_error(theta0,theta1,x_data,y_data):
    totalError=0
    for i in range(0,len(x_data)):
        totalError += ( (theta0 + theta1 * x_data[i]) - y_data[i] ) ** 2
    return totalError/float(len(x_data))

#梯度下降法
def gradient_descent_runner(x_data,y_data,Theta0,Theta1,lr,epochs):
    #计算数据总量长度
    m = float(len(x_data))
    J_Cost = {}
    #循环epochs
    for i in range(epochs):
        J_Theta0 = 0
        J_Theta1 = 0
        J_CostValue = 0
        #每迭代5次,输出一次图像
        if i % 50 == 0:
            print("epochs",i)
            plt.plot(x_data,y_data,'b.')
            plt.plot(x_data, Theta1 * x_data + Theta0 ,'g.')
            plt.show()
            pass
        pass
        '''
        repeat until convergence{
            start
        '''
        #计算梯度
        for j in range(0,len(x_data)):
            #分别对西塔0和西塔1求偏导后的函数
            J_Theta0 += -(1/m) * (y_data[j] - ((Theta1 * x_data[j]) + Theta0))
            J_Theta1 += -(1/m) * (y_data[j] - ((Theta1 * x_data[j]) + Theta0)) * x_data[j]
            
        J_Cost[i] = J_CostValue
        #更新截距和梯度
        Theta0 = Theta0 - (lr * J_Theta0)
        Theta1 = Theta1 - (lr *J_Theta1)
        '''
            end
        }
        '''

    return Theta0,Theta1,J_Cost

lr = 0.1  #设置学习率
Theta0 = 0  #截距相当于Theta0
Theta1 = 0  #斜率,相当于Theta1
epochs = 500  #最大迭代次数

print("Starting Theta0={0},Theta1={1},error={2}".format(Theta0,Theta1,compute_error(Theta0,Theta1,X,Y)))

print("Running")
Theta0,Theta1,J_Cost = gradient_descent_runner(X,Y,Theta0,Theta1,lr,epochs)

print("After {0} iterations Theta0={1},Theta1={2},error={3}".format(epochs,Theta0,Theta1,compute_error(Theta0,Theta1,X,Y)))

# 画图
plt.plot(X, Y,'b.')
#也就是y的值k*x_data+b
plt.plot(X, X * Theta1 + Theta0, 'r')
plt.show()

同样的,利用神经网络也可以进行线性回归。

b = np.ones(100).reshape(100,1) 
old_X = np.column_stack((old_X,b))

# 利用torch计算梯度并进行权重的修改
X = torch.tensor(old_X, dtype=torch.float, device=device)
Y = torch.tensor(old_Y, dtype=torch.float, device=device)

# pytorch 
w1 = torch.randn(2, 2, device=device, dtype=dtype, requires_grad=True)
loss = 0

learning_rate = 1e-4
for t in range(5000):
    y_pred = X.mm(w1).clamp(min=0)
    # Compute and print loss using operations on Tensors.
    # Now loss is a Tensor of shape (1,)
    # loss.item() gets the scalar value held in the loss.
    loss = (y_pred - Y).pow(2).sum()
    if t % 100 == 99:
        print(t, loss.item())

    # 利用torch进行反向传播自动更新梯度
    loss.backward()

    with torch.no_grad():
        # 更新权重向量,也就是ax+b 的a,b值
        w1 -= learning_rate * w1.grad

        # 将更新梯度清零
        w1.grad.zero_()

coefficient = torch.sum(w1,1)/2
Theta1 = coefficient[0].item()
Theta0 = coefficient[1].item()
plt.figure()
plt.scatter(X[:,0],Y,color='g',s=10)         #X1 为横坐标轴值,y为纵坐标值
plt.plot(X,Theta1 * X + Theta0,color='r',linewidth=2.5,linestyle='-')
plt.show()
最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 222,729评论 6 517
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 95,226评论 3 399
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 169,461评论 0 362
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 60,135评论 1 300
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 69,130评论 6 398
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 52,736评论 1 312
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 41,179评论 3 422
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 40,124评论 0 277
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 46,657评论 1 320
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 38,723评论 3 342
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 40,872评论 1 353
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 36,533评论 5 351
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 42,213评论 3 336
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 32,700评论 0 25
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 33,819评论 1 274
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 49,304评论 3 379
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 45,876评论 2 361