用python爬取天猫商品评论(0)

  由于日后实习需要,新年假期在家里有空写了个抓取天mao评论的程序,并用python的snownlp模块进行简单的情感分析,由于本人刚接触python,项目可能有许多不足,请大家谅解!具体流程如下:

0.主要流程

0.数据采集

0. 目标网址获取

首先,获取自己要爬取的商品网页。如图:

这里用iPhone x的商品做样例(博主目前使用的手机是小米3,穷鬼啊有没有!)。因为加载评论的页面用js封装起来了。因此需要用到浏览器开发者工具获取保存评论的页面,直接按F12打开。如图:

在NETwork//js目录下有一个形如上图的网址(巨长无比呀),细心发现会有一个page=1的字段,这个是控制不同页数的关键字!因此我们只需要改变page的值就能爬取不同页面的内容了!!具体代码如下:

# -*- coding: utf-8 -*-

import urllib.request

import json

import time

import re

import pymysql

def find_message(url,x,j):

    print('已有' + str(x) + '页无法获取')

    #读取网页数据

    html = urllib.request.urlopen(url).read().decode('gbk')

    #筛选json格式数据

    jsondata=re.search('^[^(]*?\((.*)\)[^)]*$', html).group(1)

    #用json加载数据

    data = json.loads(jsondata)

    #数据保存在变量里

    conn = pymysql.connect(host='localhost', port=3306, user='root', passwd='1234', db='pysql', charset='utf8')

    cur = conn.cursor()

    # 连接mysql

    print('连接成功!!!!')

    try:

        for i in range(0, len(data['rateDetail']['rateList'])):

            #print(str(i + 1) + data['rateDetail']['rateList'][i])

            name = data['rateDetail']['rateList'][i]['displayUserNick']

            #处理过的用户名

            content = data['rateDetail']['rateList'][i]['rateContent']

            #当天评论

            time = data['rateDetail']['rateList'][i]['rateDate']

            # 评论日期

            iphonetype = data['rateDetail']['rateList'][i]['auctionSku']

            #机型

            appenddays = data['rateDetail']['rateList'][i]['appendComment']['days']

            #追加评论的天数

            appendtime=data['rateDetail']['rateList'][i]['appendComment']['commentTime']

            #追加评论的时间

            appendcontent=data['rateDetail']['rateList'][i]['appendComment']['content']

            #追加评论的内容

            cur.execute("insert into iphonex(用户名,当天评论,当天时间,机型,追加天数,追加时间,追加评论) values (\"%s\",\"%s\",\"%s\",\"%s\",%d,\"%s\",\"%s\")"%(str(name),str(content),str(time),str(iphonetype),int(appenddays),str(appendtime),str(appendcontent)))

        print(str(j+1)+"页数据已经保存")

        #数据插入mysql

        return x

    except BaseException:

        x+=1

        print('已有'+str(x)+'页无法获取')

        print("####此页无法获取####")

        return x

#主函数

x=0

for j in range(1,50):

    try:

        print("正在获取第{}页评论数据!".format(j))

        url = 'https://rate.tmall.com/list_detail_rate.htm?itemId=560257961625&spuId=893336129&sellerId=1917047079&order=3¤tPage=' + str(j) +'&append=1&' \

              'content=1&tagId=&posi=&picture=0&ua=098%23E1hvLpvZv7UvUpCkvvvvvjiPPLLhzjtbPscOsjljPmPhljlUR25Z0jlURFSWljn8RFyCvvpvvvvvdphvmpvhOOhvvv2' \

              'psOhCvv147GzzgY147Dunrn%2FrvpvEvvkj9oIuvWLMdphvmpvWPgEboQvgfOhCvv14cOjzyC147DikWn%2Fjvpvhvvpvv8wCvvpvvUmmRphvCvvvvvvPvpvhMMGvvvyCvhQpm' \

              'kwvCszEDajxRLa9mNLhQnmOjVQ4S47B9CkaU6bnDO2hV36AxYjxAfyp%2B3%2BuQjc60fJ6EvLv%2BExreE9aUExr0jZ7%2B3%2Buzjc61C4Auphvmvvv9bvT4yc7kphvC99v' \

              'vOClpbyCvm9vvvvvphvvvvvv96Cvpvs4vvm2phCvhRvvvUnvphvppvvv96CvpCCvvphvC9vhvvCvp86Cvvyv224CeiIvHUytvpvhvvvvv86CvvyvhEKCFgGv1WQtvpvhvvvvvUh' \

              'CvmDz7GczTr147Dup2nGD1TAqsd%2FoU0dieGd8S6STvI8byIKB9OHmvtmWyv%3D%3D&isg=BAMDf2HuXRdECBGLXKb6oZc2ksdt0Jbc5_lgETXg6mLa9CIWvUsTCypmaoS61O-y&itemPropertyId=&itemPropertyIndex=&userProp' \

              'ertyId=&userPropertyIndex=&rateQuery=&location=&needFold=0&_ksTS=1518175553706_1200&callback=jsonp1201'

        x=find_message(url,x,j)

        time.sleep(3)

        # 设置时间间隔(这个不要忽视)

    except BaseException:

        continue

说几点代码的问题:

js网页效果图如下:

jsondata=re.search('^[^(]*?\((.*)\)[^)]*$', html).group(1)

由网页效果图可知,评论信息是保存在jsonp719()里面的,因此需要用正则表达式获取()里面的内容,去除无用部分,然后用json.loads得到字典data。

如上图,用pycharm里面的json格式打开输出的数据data可以得到想要的数据在字典中位置。

在data = json.loads(jsondata)后面加print(data)输出原数据会发现一些问题:如下

打开图中url得到:

没错这个就是securitymatrix(下篇文章介绍),这样会有一些页面无法获取一些页面,所以需要设置 time.sleep(3),这里用参数3,其实最好用random()选随机数3到5的参数(这样T猫机器人没那么容易发现你也是它的同类,页面丢失率会降低,当然你也可以写个函数重新获取丢失的页面) 

运行结果:

由于丢失了2页数据,所以剩下960条记录(50页每页20条)

好了爬取工作完成了!

1. 爬虫框架选用

本来打算是用python的selenium模块模拟登录爬取的但是由于天猫的securitymatrix安全系统()比较强大,博主还没有能力破解,这里只能使用自己写的流程用request库抓取网页。

当然你也可以选择python的scrapy模块爬取,这个看个人喜好吧!核心思路是不变的。

好了爬虫部分写到这里了,后面的内容以后会更新!由于博主还是小白,写的代码,特别是异常处理写的不是很规范。希望各位大师指点。

听说帅的人都点赞和打赏了!

  那么你帅吗????^-^

    还有欢迎各位留言交流!!!

      预祝2018,新年快乐!

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 212,718评论 6 492
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 90,683评论 3 385
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 158,207评论 0 348
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 56,755评论 1 284
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 65,862评论 6 386
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 50,050评论 1 291
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 39,136评论 3 410
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 37,882评论 0 268
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 44,330评论 1 303
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 36,651评论 2 327
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 38,789评论 1 341
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 34,477评论 4 333
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 40,135评论 3 317
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 30,864评论 0 21
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 32,099评论 1 267
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 46,598评论 2 362
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 43,697评论 2 351

推荐阅读更多精彩内容

  • Python 面向对象Python从设计之初就已经是一门面向对象的语言,正因为如此,在Python中创建一个类和对...
    顺毛阅读 4,211评论 4 16
  • 《ilua》速成开发手册3.0 官方用户交流:iApp开发交流(1) 239547050iApp开发交流(2) 1...
    叶染柒丶阅读 10,609评论 0 11
  • Spring Cloud为开发人员提供了快速构建分布式系统中一些常见模式的工具(例如配置管理,服务发现,断路器,智...
    卡卡罗2017阅读 134,638评论 18 139
  • 001 下午的时候老师发来信息,问论文写得如何了。我停顿了好几分钟才回信息过去,说实在不知道该如何修改,稍后把最终...
    兽医博士在广西阅读 363评论 6 9
  • 第二季以后,周清包子铺都已经在网上卖包子了,所有经营资质都齐全了吗?需要有哪些证件? 需要肉类供应商 菜类供应商 ...
    341e6b78130d阅读 372评论 0 0