import numpy as np
def compute_cost_linear(X,y,w,b,lambda_):
m = X.shape[0] #提取样本数量
fx = np.dot(X,w)+b
cost =(1/(2*m))*np.sum((fx-y)**2)+(lambda_/(2*m))*np.sum(w**2)
return cost
def compute_gradient_linear(X,y,w,b,lambda_):
m = X.shape[0] #提取样本数量
fx = np.dot(X,w)+b
error = fx - y
dj_dw = (1/m)*np.dot(X.T,error)+(lambda_/m)*w
dj_db = (1/m)*np.sum(error)
return dj_dw,dj_db
def sigmoid(z):
z = 1/(1+np.exp(-z))
return z
def compute_cost_logistic(X,y,w,b,lambda_):
z = np.dot(X,w)+b
fx = sigmoid(z)
cost =(-1/m)*np.sum(y*np.log(fx)+(1-y)*np.log(1-fx))+(lambda_/(2*m))*np.sum(w**2)
return cost
def compute_gradient_logistic(X,y,w,b,lambda_):
m = X.shape[0]
z = np.dot(X,w)+b
fx = sigmoid(z)
error = fx - y
dj_dw = (1/m)*np.dot(X.T,error)+(lambda_/m)*w
dj_db = (1/m)*np.sum(error)
return dj_dw,dj_db
def predict_class_logistic(X,w,b):
m, n = X.shape
p = np.zeros(m)
z = np.dot(X,w)+b
fx = sigmoid(z)
p = (fx >= 0.5).astype(int)
return p
线性回归、逻辑回归的成本函数和梯度下降实现
©著作权归作者所有,转载或内容合作请联系作者
- 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
- 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
- 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
推荐阅读更多精彩内容
- 读这篇文章有感。我来总结一下,便于记忆。 最小二乘法(Least Square Method)适用于二维空间,用直...
- 本章重点:1.线性回归的理解与运用。2.什么是代价函数。3.什么是梯度下降算法。 一、线性回归 解释代价函数与梯度...
- 1.一元线性回归 univariate linear regression 模型(假设函数hypothesis f...
- 一、基本概念 1.1 机器学习的定义 一个年代近一点的定义,由来自卡内基梅隆大学的 Tom Mitchell 提出...