搭建基于K近邻的图像识别
3.2 图像的读取以及表示
4.2 特征编码技术
假如我们直接使用标签编码来代表这里每一个类别特征是有问题的。那具体存在什么问题呢? 可以这么想,如果我们直接把类别特征看作是具体的数比如0,1,2… 那这时候,数与数之间是有大小关系的,比如2要大于1,1要大于0,而且这些大小相关的信息必然会用到模型当中。
但这就跟原来特征的特点产生了矛盾,因为对于深度学习,数据分析来说它们之间并不存在所谓的“大小”,可以理解为平行关系。所以对于这类特征来说,直接用0,1,2.. 的方式来表示是存在问题的,所以结论是不能这么做。
那我们该如何表达一个类别性特征呢? 答案就是独热编码。
变量离散化会增加模型的非线性化。离散化之后再转化为独热编码。逻辑回归和线性回归经常用。简单的方法,落在每个区间的样本数量比较接近。
4.3 二手车价格预测:KNN用于回归
#导入几个关键词的库。这里seaborn库用来画一个heatmap。
import pandas as pd
import matplotlib
import matplotlib.pyplot as plt
import numpy as np
import seaborn as sns
#利用pandas读取数据并打印 可以看得到具体数据了,每一列都是一个特征值。
#读取数据
df = pd.read_csv('/home/anaconda/data/RGZNXLY/ch4/data.csv')
df # data frame
#做了特征的处理,把类别型特征转换成了独热编码的形式。这里针对Color和Type做了独热编码操作。
#而对于Brand没有做任何操作,因为在给定的数据里Brand都是一样的,可以去掉了.
#可以看出来表格中多了几个列,分别以Color:和Type:开头,表示的就是转换成独热编码之后的结果。
# 特征处理
# 把颜⾊独热编码
df_colors = df['Color'].str.get_dummies().add_prefix('Color: ')
# 把类型独热编码
df_type = df['Type'].apply(str).str.get_dummies().add_prefix('Type: ')
# 添加独热编码数据列
df = pd.concat([df, df_colors, df_type], axis=1)
# 去除独热编码对应的原始列
df = df.drop(['Brand', 'Type', 'Color'], axis=1)
df
#第一步先看一下数据特征之间的相关性,这里使用了corr()函数来计算特征之间的相关性。
#之后通通过sns模块来可视化相关性。 颜色越深的代表相关性越大。
# 数据转换
matrix = df.corr()
f, ax = plt.subplots(figsize=(8, 6))
sns.heatmap(matrix, square=True)
plt.title('Car Price Variables')
#导入KNN相关的库以及其他相关的库。这里StandardScaler用来做特征的归一化,把原始特征转换成均值为0方差为1的高斯分布。
from sklearn.neighbors import KNeighborsRegressor
from sklearn.model_selection import train_test_split
from sklearn import preprocessing
from sklearn.preprocessing import StandardScaler
import numpy as np
#这部分代码主要用来做特征的归一化。这里需要注意的一点是特征的归一化的标准一定要来自于训练数据,之后再把它应用在测试数据上。
#因为实际情况下,测试数据是我们看不到的,也就是统计不到均值和方差。
X = df[['Construction Year', 'Days Until MOT', 'Odometer']]
y = df['Ask Price'].values.reshape(-1, 1)
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.3, random_state=41)
X_normalizer = StandardScaler() # N(0,1)
X_train = X_normalizer.fit_transform(X_train)
X_test = X_normalizer.transform(X_test)
#这部分主要用来训练KNN模型,以及用KNN模型做预测,并把结果展示出来。
#这里我们使用了y_normalizer.inverse_transform,因为我们在训练的时候把预测值y也归一化了,所以最后的结论里把之前归一化的结果重新恢复到原始状态。
#在结果图里,理想情况下,假如预测值和实际值一样的话,所有的点都会落在对角线上,但实际上现在有一些误差。
y_normalizer = StandardScaler()
y_train = y_normalizer.fit_transform(y_train)
y_test = y_normalizer.transform(y_test)
knn = KNeighborsRegressor(n_neighbors=2)
knn.fit(X_train, y_train.ravel())
#Now we can predict prices:
y_pred = knn.predict(X_test)
y_pred_inv = y_normalizer.inverse_transform(y_pred)
y_test_inv = y_normalizer.inverse_transform(y_test)
# Build a plot
plt.scatter(y_pred_inv, y_test_inv)
plt.xlabel('Prediction')
plt.ylabel('Real value')
# Now add the perfect prediction line
diagonal = np.linspace(500, 1500, 100)
plt.plot(diagonal, diagonal, '-r')
plt.xlabel('Predicted ask price')
plt.ylabel('Ask price')
plt.show()
#打印最终的结果,也就是预测的值 可以看到实际预测的值
print(y_pred_inv)
#打印KNN模型里的具体的变量
knn
4.4 二手车价格预测:KNN用于回归
-
递归复杂度分析
-
KNN复杂度
-
带权重的KNN
也可以计算所有的样本