K近邻 | python实现

01 KNN可以做点什么呢?

在李航的《统计学习方法》中,详细讲解了一中分类算法:K近邻(K Nearest Neighbor),具体的算法过程和关键点可以参考这篇文章:

统计学习方法 | k近邻法

算法的理论基础有了,下一步就是自己动手去实现了。

今天我们的文章就是利用python去实现KNN算法,利用这套算法可以做什么呢?

比如,我们已经知道一组鸢尾花的花瓣、花萼长宽以及对应的鸢尾花品种,那么利用KNN算法,我们就可以判断一朵拥有一定长宽的花瓣花萼属于鸢尾花的哪个品种

同样地,利用KNN算法,可以根据经验数据(训练集),判断贷款客户的风险高低,决定是否贷款给客户等等。

本文利用以下两种方式在python中实现KNN算法:

  1. 直接调用python的sklearn包中的knn算法
  2. 自定义函数实现KNN算法

02 sklearn包实现

python自带的sklearn包是一个非常强大的机器学习包,其中包含了knn算法,主要包含以下几个函数。

1. 引入sklearn包中的knn类

from sklearn.neighbors import KNeighborsClassifier

2. 取得knn分类器,并使用内置参数调整KNN三要素

knn=KNeighborsClassifier(weights="distance",n_neighbors=10)

这里说明一下此分类器各参数的意义(先了解KNN算法原理,再看参数更容易理解)

3. 使用knn.fit()对训练集进行训练

knn.fit(),训练函数,它是最主要的函数。接收参数只有1个,就是训练数据集,每一行是一个样本,每一列是一个属性。它返回对象本身,即只是修改对象内部属性,因此直接调用就可以了,后面用该对象的预测函数取预测自然及用到了这个训练的结果。

knn.fit(iris_x_train,iris_y_train)

4. 调用knn.predict()预测新输入的类别

knn.predict(),预测函数 接收输入的数组类型测试样本,一般是二维数组,每一行是一个样本,每一列是一个属性。返回数组类型的预测结果。

iris_y_predict=knn.predict(iris_x_test)

5. 调用knn.predict_proba(),显示每个测试集样本对应各个分类结果的概率

knn.predict_proba(),基于概率的软判决,也是预测函数,只是并不是给出某一个样本的输出是哪一个值,而是给出该输出是各种可能值的概率各是多少。

knn.predict_proba(iris_x_test)

6. 调用knn.score()计算预测的准确率

knn.score(),计算准确率的函数,接受参数有3个。输出为一个float型数,表示准确率。内部计算是按照predict()函数计算的结果记性计算的。

接收的3个参数:

  • X: 接收输入的数组类型测试样本,一般是二维数组,每一行是一个样本,每一列是一个属性。
  • y: X这些预测样本的真实标签,一维数组或者二维数组。
  • sample_weight=None:是一个和X一样长的数组,表示各样本对准确率影响的权重,一般默认为None.
score=knn.score(iris_x_test,iris_y_test,sample_weight=None)

完成!

利用sklearn实现KNN算法,训练集为130个鸢尾花的训练集,包含了鸢尾花的花瓣花萼长宽以及对应的品种,输入为20个鸢尾花的花瓣花萼长宽,输出为这20个鸢尾花的品种预测,运行结果如下

iris_y_predict=
['Iris-setosa' 'Iris-setosa' 'Iris-setosa' 'Iris-versicolor'
 'Iris-versicolor' 'Iris-setosa' 'Iris-virginica' 'Iris-virginica'
 'Iris-versicolor' 'Iris-virginica' 'Iris-setosa' 'Iris-virginica'
 'Iris-versicolor' 'Iris-virginica' 'Iris-setosa' 'Iris-virginica'
 'Iris-versicolor' 'Iris-virginica' 'Iris-versicolor' 'Iris-setosa']
    
iris_y_test=
['Iris-setosa' 'Iris-setosa' 'Iris-setosa' 'Iris-versicolor'
 'Iris-versicolor' 'Iris-setosa' 'Iris-virginica' 'Iris-virginica'
 'Iris-versicolor' 'Iris-virginica' 'Iris-setosa' 'Iris-virginica'
 'Iris-versicolor' 'Iris-versicolor' 'Iris-setosa' 'Iris-virginica'
 'Iris-versicolor' 'Iris-virginica' 'Iris-versicolor' 'Iris-setosa']

accuracy is= 95.0 %

预测结果准确率为95%

完整代码我放在了github上,欢迎交流
KNN的sklearn实现

03 自定义函数实现

下面我们升级难度,甩开别人喂到你面前的饭菜,自己动手写一个KNN分类器。

在此之前,你需要非常了解KNN算法原理

本KNN分类器原理如下:

  1. 计算输入x与训练集各点的距离distance(这里numpy数组的元素级计算高效率凸显!)

  2. 按distance排序,取distance最近的k个点(k为分类器参数)

  3. 对k个点的类别归类计数,x归为多数类(多数表决)

  4. 或者对k个点的类别按1/distance权重归类计数,x归为计数大的类(加权表决)

基于上面的算法原理,下面直接给出我写的KNN分类器代码,此分类器特征如下:

  • 可以选择分类决策规则(多数表决/距离加权表决)
  • 可以选择近邻数k
  • 使用欧氏距离度量
  • 一次只能对一个新输入分类,这是此分类器的弊病,后续改进算法提升点(加入for循环即可)
  • 没有设定训练集数据存储方式选择的参数,只能线性扫描(即,没有设置kd树存储),因此难以处理大数据量的训练集

自定义KNN分类器

# newInput: 新输入的待分类数据(x_test),本分类器一次只能对一个新输入分类
# dataset:输入的训练数据集(x_train),array类型,每一行为一个输入训练集
# labels:输入训练集对应的类别标签(y_train),格式为['A','B']而不是[['A'],['B']]
# k:近邻数
# weight:决策规则,"uniform" 多数表决法,"distance" 距离加权表决法

def KNNClassify(newInput, dataset, labels, k, weight):
    numSamples=dataset.shape[0]
    
    """step1: 计算待分类数据与训练集各数据点的距离(欧氏距离:距离差值平方和开根号)"""
    diff=np.tile(newInput,(numSamples,1)) - dataset # 凸显numpy数组的高效性——元素级的运算
    squaredist=diff**2
    distance = (squaredist.sum(axis=1))**0.5 # axis=1,按行累加
    
    """step2:将距离按升序排序,并取距离最近的k个近邻点"""
    # 对数组distance按升序排序,返回数组排序后的值对应的索引值
    sortedDistance=distance.argsort() 
    
    # 定义一个空字典,存放k个近邻点的分类计数
    classCount={}
    
    # 对k个近邻点分类计数,多数表决法
    for i in range(k):
        # 第i个近邻点在distance数组中的索引,对应的分类
        votelabel=labels[sortedDistance[i]]
        if weight=="uniform":
            # votelabel作为字典的key,对相同的key值累加(多数表决法)
            classCount[votelabel]=classCount.get(votelabel,0)+1 
        elif weight=="distance":
            # 对相同的key值按距离加权累加(加权表决法)
            classCount[votelabel]=classCount.get(votelabel,0)+(1/distance[sortedDistance[i]])
        else:
            print ("分类决策规则错误!")
            print ("\"uniform\"多数表决法\"distance\"距离加权表决法")
            break 
            
    # 对k个近邻点的分类计数按降序排序,返回得票数最多的分类结果
    sortedClassCount=sorted(classCount.items(),key=operator.itemgetter(1),reverse=True)
    if weight=="uniform":
        print ("新输入到训练集的最近%d个点的计数为:"%k,"\n",classCount)
        print ("新输入的类别是:", sortedClassCount[0][0])
    
    elif weight=="distance":
        print ("新输入到训练集的最近%d个点的距离加权计数为:"%k,"\n",classCount)
        print ("新输入的类别是:", sortedClassCount[0][0])
    
    return sortedClassCount[0][0]

下面对自定义的KNN分类器进行测试,还是使用鸢尾花数据集.

1. 建立训练集、测试集

iris=pd.read_csv("E:\python\practice\iris.txt")
iris.head()

iris_x=iris.iloc[:,[0,1,2,3]]
iris_y=iris.iloc[:,[4]]

np.random.seed(7)
indices=np.random.permutation(len(iris_x))

iris_x_train=iris_x.iloc[indices[0:130]]
iris_y_train=iris_y.iloc[indices[0:130]]

iris_x_test=iris_x.iloc[indices[130:150]]
iris_y_test=iris_y.iloc[indices[130:150]]

# 将dataframe格式的数据转换为numpy array格式,便于 调用函数计算
iris_x_train=np.array(iris_x_train)
iris_y_train=np.array(iris_y_train)

iris_x_test=np.array(iris_x_test)
iris_y_test=np.array(iris_y_test) 

# 将labels的形状设置为(130,)
iris_y_train.shape=(130,)

2. 将训练集、测试集带入自定义KNN分类器进行分类

test_index=12
predict=KNNClassify(iris_x_test[test_index],iris_x_train,iris_y_train,20,"distance")
print (predict)
print ("新输入的实际类别是:", iris_y_test[test_index])
print ("\n")

if predict==iris_y_test[test_index]:
    print ("预测准确!")
else:
    print ("预测错误!")

随意选择一个测试数据,预测结果如下

新输入到训练集的最近20个点的距离加权计数为: 
 {'Iris-versicolor': 45.596003202769246}
新输入的类别是: Iris-versicolor
Iris-versicolor
新输入的实际类别是: ['Iris-versicolor']

预测准确!

完整代码我放在了github上,欢迎交流
KNN的自定义函数实现

04 预告

本文结合KNN算法原理,利用python实现了KNN,使用了两种方式:

  1. sklearn包实现
  2. 自定义KNN分类器

下期将利用python实现朴素贝叶斯算法,敬请期待~

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 211,423评论 6 491
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 90,147评论 2 385
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 157,019评论 0 348
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 56,443评论 1 283
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 65,535评论 6 385
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 49,798评论 1 290
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 38,941评论 3 407
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 37,704评论 0 266
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 44,152评论 1 303
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 36,494评论 2 327
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 38,629评论 1 340
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 34,295评论 4 329
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 39,901评论 3 313
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 30,742评论 0 21
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,978评论 1 266
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 46,333评论 2 360
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 43,499评论 2 348

推荐阅读更多精彩内容