线性回归代码-python

线性回归模型

其中包括5个方法

1、最小二乘法调用numpy包实现

2、最小二乘法调用scipy包实现

3、自己编写最小二乘法实现

4、线性回归模型调用sklearn包实现

5、自己编写线性回归方法实现

示例结果

程序运行结果

程序运行结果

代码

import numpy as np
import matplotlib.pyplot as plt
from scipy.optimize import leastsq  # 方法二中使用
from sklearn import linear_model


data = np.loadtxt('challenge_dataset.txt', delimiter=',')
print('data.shape: {0}'.format(data.shape))
print('data.type : {0}'.format(type(data)))


# 线性回归模型类
class Linear_regression_methods:
    def __init__(self, data):
        self.data = data
        self.x = data[:, 0]
        self.y = data[:, 1]

    def plt_method(self, title, a, b):
        # title.type is str
        # a is weight, b is bias
        plt.title(title)
        plt.plot(self.x, self.y, 'o', label='data', markersize=10)
        plt.plot(self.x, a * self.x + b, 'r', label='line')
        plt.legend()
        plt.show()

    def print_method(self, title, a, b):
        return print('-'*50 + "\n{}\ny = {:.5f}x + {:.5f}".format(title, a, b))

    def computer_error(self, a, b):
        x = self.data[:, 0]
        y = self.data[:, 1]
        totalError = (y - (a * x + b)) ** 2
        totalError = np.sum(totalError, axis=0)
        results = totalError / float(len(data))
        return print('this model final error: {:.5f}'.format(results))

    def one_leastsq_call_numpy_pakeage(self):
        # 调用numpy.linalg.lstsq()方法
        A = np.vstack([self.x, np.ones(len(self.x))]).T
        a, b = np.linalg.lstsq(A, self.y)[0]  # 求一个线性方程组的最小二乘解
        self.print_method('first leastsq_call_numpy_pakeage', a, b)
        self.plt_method('first leastsq_call_numpy_pakeage', a, b)  # 调用画图方法
        self.computer_error(a, b)

    def two_leatsq_call_scipy_pakeage(self):
        # 调用scipy.optimize中的lestsq方法
        def fun(p, x):  # 定义想要拟合的函数
            k, b = p  # 从参数p获得拟合参数
            return k*x + b

        def err(p, x, y):  # 定义误差函数
            return fun(p, x) - y

        # 定义起始的参数 即从 y = 1*x+1 开始,其实这个值可以随便设,只不过会影响到找到最优解的时间
        p0 = [1, 1]  # 也可随机初始化
        # leastsq函数需传入numpy类型
        xishu = leastsq(err, p0, args=(self.x, self.y))
        self.print_method('second leatsq_call_scipy_pakeage', xishu[0][0], xishu[0][1])
        self.plt_method('second leatsq_call_scipy_pakeage', xishu[0][0], xishu[0][1])
        self.computer_error(xishu[0][0], xishu[0][1])

    def three_leastsq_function(self):
        # 最小二乘法手动实现方法
        def calcAB(x, y):
            n = len(x)
            sumX, sumY, sumXY, sumXX=0, 0, 0, 0
            for i in range(0, n):
                sumX += x[i]
                sumY += y[i]
                sumXX += x[i]*x[i]
                sumXY += x[i]*y[i]
            a = (sumXY - (1/n) * (sumX * sumY)) / (sumXX - (1/n) * sumX * sumX)
            b = sumY/n - a * sumX/n
            return a, b
        a, b = calcAB(self.x, self.y)
        self.print_method('third leastsq_function', a, b)
        self.plt_method('third leastsq_function', a, b)
        self.computer_error(a, b)

    def four_linear_model_call_sklearn(self):
        # train model on data
        body_reg = linear_model.LinearRegression()
        x_values = self.x.reshape(-1, 1)
        y_values = self.y.reshape(-1, 1)
        body_reg.fit(x_values, y_values)
        results = body_reg.predict(x_values)
        a = float((results[0] - results[1]) / (self.x[0] - self.x[1]))  # 确定两点求直线的斜率与截距
        b = float(results[1] - a * self.x[1])
        self.print_method('fourth linear_model_call_sklearn', a, b)
        self.plt_method('fourth linear_model_call_sklearn', a, b)
        self.computer_error(a, b)

    def five_linear_regression(self):
        def computer_gradent(b_current, m_current, data, learning_rate):
            b_gradient = 0
            m_gradient = 0
            N = float(len(data))
            # 向量化形式
            x = data[:, 0]
            y = data[:, 1]
            b_gradient = -(2 / N) * (y - (m_current * x + b_current))  # 对平方误差损失函数求偏导
            b_gradient = np.sum(b_gradient, axis=0)
            m_gradient = -(2 / N) * x * (y - (m_current * x + b_current))  # 目的是极小化平方误差
            m_gradient = np.sum(m_gradient, axis=0)
            # 用偏导数更新b和m的值
            new_b = b_current - (learning_rate * b_gradient)
            new_m = m_current - (learning_rate * m_gradient)
            return [new_b, new_m]

        def optimizer(data, starting_b, starting_m, learning_rate, num_iter):
            b = starting_b
            m = starting_m
            # gradient descent
            for i in range(num_iter):
                # update b and m with the new more accurate b and m by performing
                # this gradient step
                b, m = computer_gradent(b, m, data, learning_rate)
            return [b, m]

        def Linear_regerssion(data):
            # define hyperparamters 定义超参数
            # learning_rate is used for update gradient
            # define the number that will iteration
            # define  y =mx+b
            learning_rate = 0.001
            initial_b = 0.0
            initial_m = 0.0
            num_iter = 1000
            [b, m] = optimizer(data, initial_b, initial_m, learning_rate, num_iter)
            return m, b
        m, b = Linear_regerssion(self.data)
        self.print_method('five_linear_regression', m, b)
        self.plt_method('five_linear_regression', m, b)
        self.computer_error(m, b)


model = Linear_regression_methods(data)
model.one_leastsq_call_numpy_pakeage()
model.two_leatsq_call_scipy_pakeage()
model.three_leastsq_function()
model.four_linear_model_call_sklearn()
model.five_linear_regression()
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 215,923评论 6 498
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 92,154评论 3 392
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 161,775评论 0 351
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 57,960评论 1 290
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 66,976评论 6 388
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 50,972评论 1 295
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 39,893评论 3 416
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 38,709评论 0 271
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 45,159评论 1 308
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 37,400评论 2 331
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 39,552评论 1 346
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 35,265评论 5 341
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 40,876评论 3 325
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 31,528评论 0 21
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 32,701评论 1 268
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 47,552评论 2 368
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 44,451评论 2 352

推荐阅读更多精彩内容