09 朴素贝叶斯

例子入手: 购买计算机预测









代码:   

机器学习实战   第4章 


# 训练函数

# 计算每个类别中的文档数目

# 对每篇训练文档:

#  对每个类别:

#        如果词条出现在文档中→ 增加该词条的计数值

#      增加所有词条的计数值

#  对每个类别:

#    对每个词条:

#      将该词条的数目除以总词条数目得到条件概率

# 返回每个类别的条件概率

# [trainMatrix训练矩阵:由6个句子的向量组合成的总向量;trainCategory训练分类:即数据集分类标签label矩阵]

def trainNB0(trainMatrix, trainCategory):

    # 获取训练矩阵长度,即多少个句子,此处为6

    numTrainDocs = len(trainMatrix)

    # 获取库中所有单词数量,也就是矩阵中特征数量

    numWords = len(trainMatrix[0])

    # 计算侮辱性句子总体占比,此处为1/2

    pAbusive = sum(trainCategory) / float(numTrainDocs)

    # 初始化概率

    '''利用贝叶斯分类器对文档进行分类时,要计算多个概率的乘积以获得文档属于某个类别的概

率,即计算p(w0|1)p(w1|1)p(w2|1)。如果其中一个概率值为0,那么最后的乘积也为0。为降低

这种影响,可以将所有词的出现数初始化为1,并将分母初始化为2。'''

    p0Num = ones(numWords)

    p1Num = ones(numWords)

    # p0Num = zeros(numWords)

    # p1Num = zeros(numWords)

    p0Denom = 2.0

    p1Denom = 2.0

    # p0Denom = 0

    # p1Denom = 0

    # 遍历所有句子向量

    for i in range(numTrainDocs):

        # 如果当前句子为侮辱性的

        if trainCategory[i] == 1:

            # 累加句子向量

            p1Num += trainMatrix[i]

            # 累加句中词库中词出现的数量

            p1Denom += sum(trainMatrix[i])

        else:

            # 如但如果当前句子为非侮辱性的正常言论

            # 累加句子向量

            p0Num += trainMatrix[i]

            # 累加句中词库中词出现的数量

            p0Denom += sum(trainMatrix[i])

    ##

#'''另一个遇到的问题是下溢出, 这是由于太多很小的数相乘造成的。当计算乘积

#p(w0|ci)p(w1|ci)p(w2|ci)...p(wN|ci)时,由于大部分因子都非常小,所以程序会下溢出或者

#得到不正确的答案。(读者可以用Python尝试相乘许多很小的数,最后四舍五入后会得到0。)一

#种解决办法是对乘积取自然对数。在代数中有ln(a*b) = ln(a)+ln(b),于是通过求对数可以

#避免下溢出或者浮点数舍入导致的错误。同时,采用自然对数进行处理不会有任何损失。图4-4

#给出函数f(x)与ln(f(x))的曲线。检查这两条曲线,就会发现它们在相同区域内同时增加或者

#减少,并且在相同点上取到极值。它们的取值虽然不同,但不影响最终结果。通过修改return

#前的两行代码,将上述做法用到分类器中:

#'''

    p1Vect = log(p1Num / p1Denom)   

    p0Vect = log(p0Num / p0Denom)

    # 对每个元素做除法

    # p1Vect = p1Num / p1Denom

    # p0Vect = p0Num / p0Denom

    # 返回两种类型的算术矩阵和侮辱言论占比

    return p0Vect, p1Vect, pAbusive


# 分类函数

# [测试输入语义向量,正常评论词汇概率矩阵,侮辱言论词汇概率矩阵,侮辱言论数据集句子概率]

def classifyNB(vec2Classify, p0Vec, p1Vec, pClass1):

    # 侮辱性预判值

    p1 = sum(vec2Classify * p1Vec) + log(pClass1)

    print('p1:', p1)

    # 正常言论预判值

    p0 = sum(vec2Classify * p0Vec) + log(1.0 - pClass1)

    print('p0:', p0)

    # 比较预判值

    if p1 > p0:

        return 1

    else:

        return 0

# 测试函数

def testingNB():

    # 初始化数据集中句子和分类

    listOPosts, listClasses = loadDataSet()

    # 生成词库

    myVocabList = createVocabList(listOPosts)

    # 初始化语义向量矩阵

    trainMat = []

    # 遍历所有句子数据,生成测试数据集矩阵

    for postinDoc in listOPosts:

        trainMat.append(setOfWords2Vec(myVocabList, postinDoc))


    # 根据测试数据,求出正常评论词汇概率矩阵  p(x|c0 ),侮辱言论词汇概率矩阵 p(x|c1 ),和 侮辱言论数据集句子先验概率  pc1  pc0=1-pc1

    p0V, p1V, pAb = trainNB0(array(trainMat), array(listClasses))

    # 测试输入

    testEntry = ['love', 'my', 'dalmation']

    # 转换成对应语义向量

    thisDoc = array(setOfWords2Vec(myVocabList, testEntry))

    # 打印分类情况

    print(testEntry, 'classified as: ', classifyNB(thisDoc, p0V, p1V, pAb))

    # 测试输入

    testEntry = ['stupid', 'garbage']

    # 转换成对应语义向量

    thisDoc = array(setOfWords2Vec(myVocabList, testEntry))

    # 打印分类情况

    print(testEntry, 'classified as: ', classifyNB(thisDoc, p0V, p1V, pAb))

testingNB()

print('\n')


结果:

p1: -9.826714493730215

p0: -7.694848072384611

['love', 'my', 'dalmation'] classified as:  0

p1: -4.702750514326955

p0: -7.20934025660291

['stupid', 'garbage'] classified as:  1

©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 212,816评论 6 492
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 90,729评论 3 385
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 158,300评论 0 348
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 56,780评论 1 285
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 65,890评论 6 385
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 50,084评论 1 291
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 39,151评论 3 410
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 37,912评论 0 268
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 44,355评论 1 303
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 36,666评论 2 327
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 38,809评论 1 341
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 34,504评论 4 334
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 40,150评论 3 317
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 30,882评论 0 21
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 32,121评论 1 267
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 46,628评论 2 362
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 43,724评论 2 351

推荐阅读更多精彩内容