K近邻(KNN)-代码

1.分类和回归

定量输出称为回归,或者说是连续变量预测,预测明天的气温是多少度,这是一个回归任务

定性输出称为分类,或者说是离散变量预测,预测明天是阴、晴还是雨,就是一个分类任务

2.机器学习-K近邻

房价预测任务

酒店.png

数据读取

import pandas as pd

features = ['accommodates','bedrooms','bathrooms','beds','price','minimum_nights','maximum_nights','number_of_reviews']

dc_listings = pd.read_csv('listings.csv') 

dc_listings = dc_listings[features]
print(dc_listings.shape)

dc_listings.head()

数据特征:

  • accommodates: 可以容纳的旅客,当做是房间的数量
  • bedrooms: 卧室的数量
  • bathrooms: 厕所的数量
  • beds: 床的数量
  • price: 每晚的费用
  • minimum_nights: 客人最少租了几天
  • maximum_nights: 客人最多租了几天
  • number_of_reviews: 评论的数量

我有一个3个卧室的房子,租多少钱呢?

不知道的话,就去看看别人3个卧室的都租多少钱吧!


2.png

K近邻原理

3.png

假设我们的数据源中只有5条信息,现在我想针对我的房子(只有一个房间)来定一个价格。


5.png

再综合考虑这三个我就得到了我的房子大概能值多钱啦!

import numpy as np

our_acc_value = 3

dc_listings['distance'] = np.abs(dc_listings.accommodates - our_acc_value)
#np.abs算绝对值,absolute value
dc_listings.distance.value_counts().sort_index() 
#value_counts()统计值的个数,sort_index()按照索引排序,此时index是distance

dc_listings.head()
dc_listings.accommodates[:5]
dc_listings['accommodates'][:5]

这里我们只有了绝对值来计算,和我们距离为0的(同样数量的房间)有461个

sample操作可以得到洗牌后的数据

dc_listings = dc_listings.sample(frac=1,random_state=0)
#sample(frac=1,random_state=0)进行洗牌操作,fraction,frac=1选择了100%所有样本,random_state设置随机种子
dc_listings = dc_listings.sort_values('distance')#按照distance对样本进行升序排列
print(dc_listings.price.head())
dc_listings.head()
dc_listings.head()
print(dc_listings['price'].head() )

现在的问题是,这里面的数据是字符串呀,需要转换一下!

dc_listings['price'] = dc_listings.price.str.replace("\$|,",'').astype(float) 
#str.replace()字符替换,astype()改变数据类型,"\$|,"\是转义符,|是或的意思。
mean_price = dc_listings.price.iloc[:5].mean()
mean_price

得到了平均价格,也就是我们的房子大致的价格了

模型的评估

训练集和测试集

7.png

只考虑一个变量

def predict_price(new_listing_value,feature_column):#new_listing_value带预测样本的特征数据
    temp_df = train_df
    temp_df['distance'] = np.abs(train_df[feature_column] - new_listing_value) #np.abs求绝对值
    temp_df = temp_df.sort_values('distance')
    knn_5 = temp_df.price.iloc[:5]
    predicted_price = knn_5.mean()
    return(predicted_price)
print (test_df.accommodates.head())#查看测试集中前五个样本的accommodates
print (predict_price(1,feature_column='accommodates'))#预测价格
print (test_df.head(1).price)#第一个样本的真实价格
test_df['predicted_price'] = test_df.accommodates.apply(predict_price,feature_column='accommodates')
#series.apply(),没有axis参数,把每行数据传入predict_price
print (test_df[['predicted_price','price']])

误差评估

root mean squared error (RMSE)均方根误差


6.png

测试集总的均方根误差

test_df['squared_error'] = (test_df['predicted_price'] - test_df['price'])**(2)
mse = test_df['squared_error'].mean()
rmse = mse ** (1/2)
rmse  #现在我们得到了对于一个变量的模型评估得分

不同的变量效果会不会不同呢?

for feature in ['accommodates','bedrooms','bathrooms','number_of_reviews']:
    test_df['predicted_price'] = test_df[feature].apply(predict_price,feature_column=feature)
    test_df['squared_error'] = (test_df['predicted_price'] - test_df['price'])**(2)
    mse = test_df['squared_error'].mean()
    rmse = mse ** (1/2)
    print("RMSE for the {} column: {}".format(feature,rmse))

数据处理

import pandas as pd
from sklearn import preprocessing
from sklearn.preprocessing import MinMaxScaler
from sklearn.preprocessing import StandardScaler

features = ['accommodates','bedrooms','bathrooms','beds','price','minimum_nights','maximum_nights','number_of_reviews']

dc_listings = pd.read_csv('listings.csv')

dc_listings = dc_listings[features]

dc_listings['price'] = dc_listings.price.str.replace("\$|,",'').astype(float)

dc_listings = dc_listings.dropna() #去掉数据中的缺失值

#dc_listings[features] = StandardScaler().fit_transform(dc_listings[features]) # 标准化用 sklearn.preprocessing.StandardScaler()模块
dc_listings[features] = MinMaxScaler().fit_transform(dc_listings[features]) #归一化用 sklearn.preprocessing.MinMaxScaler()模块

normalized_listings = dc_listings

print(dc_listings.shape)

normalized_listings.head()

使用Sklearn来完成KNN

import sklearn
from sklearn.neighbors import KNeighborsRegressor
cols = ['accommodates','bedrooms']
knn = KNeighborsRegressor(n_neighbors=5) #默认n_neighbors=5,取前5个最相近的样本。
knn.fit(norm_train_df[cols], norm_train_df['price']) #传入训练集指标下的数据和标签
two_features_predictions = knn.predict(norm_test_df[cols])
#print(two_features_predictions)
from sklearn.metrics import mean_squared_error

two_features_mse = mean_squared_error(norm_test_df['price'], two_features_predictions)
two_features_rmse = two_features_mse ** (1/2)
print(two_features_rmse)

输出:0.04193612857354859

minmax_scaler=MinMaxScaler()
minmax_price_values=minmax_scaler.fit_transform(dc_listings.price.values.reshape(-1,1))
minmax_price_r_values=minmax_scaler.inverse_transform(two_features_predictions.reshape(-1,1))
dc_listings.price.values.reshape(-1,1)

输出:array([[0.05334282],
[0.12091038],
[0.01422475],
...,
[0.09423898],
[0.06009957],
[0.03556188]])

加入更多的特征

knn = KNeighborsRegressor(n_neighbors=5)

cols = ['accommodates','bedrooms','bathrooms','beds','minimum_nights','maximum_nights','number_of_reviews']

knn.fit(norm_train_df[cols], norm_train_df['price'])
seven_features_predictions = knn.predict(norm_test_df[cols])

seven_features_mse = mean_squared_error(norm_test_df['price'], seven_features_predictions)
seven_features_rmse = seven_features_mse ** (1/2)
print(seven_features_rmse)

得分值:0.041388747758587266

数据包加QQ发放:1091164118

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 214,951评论 6 497
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 91,606评论 3 389
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 160,601评论 0 350
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 57,478评论 1 288
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 66,565评论 6 386
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 50,587评论 1 293
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 39,590评论 3 414
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 38,337评论 0 270
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 44,785评论 1 307
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 37,096评论 2 330
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 39,273评论 1 344
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 34,935评论 5 339
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 40,578评论 3 322
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 31,199评论 0 21
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 32,440评论 1 268
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 47,163评论 2 366
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 44,133评论 2 352

推荐阅读更多精彩内容

  • 小孩子打架, 对家长来说, 是非常常见而头痛的事情. 每次看到孩子们在相互抓头发,抠眼睛, 家长们就会惊慌失措...
    恩恕妈妈在加拿大阅读 365评论 0 1
  • 2017.05.14 今天是母亲节(婆婆被大伯哥接去他家过节了),原计划我们去肇东看爸爸,但是周五妹妹一家已经去肇...
    魅力春天阅读 574评论 0 1
  • 关于勇气,信心的力量是惊人的,相信自己,那么,一切困难都将不会是困难的。因为勇气是一种积极的心理质量,是促使人向上...
    好习惯2011阅读 123评论 0 0
  •   这是一群小学生不甘心命运的不公而努力与“大人世界”抗争的故事。   我个人比较喜欢校园青春类的动画,这部漫画也...
    大洪阅读 1,121评论 0 0
  • 小时候,父母问我们要做什么时,我们都很有自已的想法,当科学家呀,做服务生呀,捡垃圾呀,当帅哥呀,考一百分,做老师等...
    心尘三宝阅读 227评论 0 0