第13章 实战:原生爬虫

第13章所讲重点为:原生爬虫

13-1分析抓取目的确定抓取页面

# 13-1分析抓取目的确定抓取页面
# 13-2 整理爬虫常规思路

    爬虫前奏:
    明确目的
    找到数据对应的网页
    分析网页的结构找到数据所在的标签位置

    模拟HTTP请求,   向服务器发送这个请求,获取到服务区返回给我们的HTML
    用正则表达式提取我们需要的数据(名字,人气)
# 13-3 VSCode中调试代码
import re
from urllib import request  #通过Python内置的库来模仿HTTP请求获取要爬取的网页

class Spider():
    url = 'https://www.panda.tv/cate/lol'#保存要抓取的地址
    root_pattern = '<div> class="video-info">[\s\S]*?</div>'
    def __fetch_content(self):#获取网页的内容,实例方法需要加self
        r = request.urlopen(Spider.url)#通过request下面的方法来获取网页信息,并且将信息传递进来
        htmls = r.read()#将网页内容读取出来
        htmls = str(htmls,encoding = 'utf-8')#文本转换
        return htmls

    def __analysis(self,htmls):#分析文本
        root_html = re.findall(Spider.root_pattern,htmls)

    def go(self):#入口方法
        htmls = self.__fetch_content()
        self.__analysis(htmls)

spider = Spider()
spider.go()

# 13-4 HTML结构分析基本原则二条
就近原则
特定的标识符或者标签!

# 13-4 HTML结构分析基本原则二条
尽量选择可以闭合的标签作为定位标签

# 13-6 正则分析HTML
import re
from urllib import request  #通过Python内置的库来模仿HTTP请求获取要爬取的网页
import ssl 
ssl._create_default_https_context = ssl._create_unverified_context
class Spider():
    url = 'https://www.panda.tv/cate/lol'#保存要抓取的地址
    root_pattern = '<div class="video-info">([\s\S]*?)</div>'#注意用正则表达式分析我们所提取的内容
    name_pattern = '</i>([\s\S]*?)</span>'#根据思维导图第二步,名字匹配
    number_pattern = '<span class="video-number">([\s\S]*?)</span>'#根据思维导图第二步,人数匹配

    def __fetch_content(self):#获取网页的内容,实例方法需要加self
        r = request.urlopen(Spider.url)#通过request下面的方法来获取网页信息,并且将信息传递进来
        htmls = r.read()#将网页内容读取出来
        htmls = str(htmls,encoding = 'utf-8')#将字节码转换成文本方法

        return htmls

    def __analysis(self,htmls):#定义一个实例方法。分析文本,进入网页分析页面信息
        root_html = re.findall(Spider.root_pattern,htmls)
        anchors = []#定义一个anchors的列表
        for html in root_html:#for循环遍历
            name = re.findall(Spider.name_pattern,html)
            number = re.findall(Spider.number_pattern,html)
            anchor = {'name':name,'number':number}#打印成字典形式
            anchors.append(anchor)#在列表中添加元素的方法
        # print(root_html[0])#打印一个结果看看,进一步分析我们所需要的数据,如图5
        # print(anchors[0])
        return anchors

    def __refine(self,anchors):#爬虫里面最精炼的一个环节,精炼环节.去掉空格换行符
        l = lambda anchor:{
            'name':anchor['name'][0].strip(),
            'number':anchor['number'][0]
            }#lambda函数配合内置函数
        return map(l,anchors)

    def __sort(self,anchors):#排序
        anchors = sorted(anchors,key=self.__sort_seed,reverse = True)#使用sorted的注意事项,一定要指定key的值
        return anchors 

    def __sort_seed(self,anchor):
        r = re.findall('\d*',anchor['number'])
        number = float(r[0])
        if '万' in anchor['number']:
            number *=10000
        return number

    def __show(self,anchors):#展示打印结果
        for rank in range(0,len(anchors)):
            # print(anchor['name'] + '-----' + anchor['number'])
            print('rank' + str(rank + 1)
            + ' : ' + anchors[rank]['name']
            + ' ' + anchors[rank]['number'])

    def go(self):#入口方法。所有的方法都会经过go方法总控
        htmls = self.__fetch_content()
        anchors = self.__analysis(htmls)#传入anchors
        anchors = list(self.__refine(anchors))
        anchors = self.__sort(anchors)
        self.__show(anchors)

spider = Spider()
spider.go()

# 总结如下:
'''
beautifulsoup
scrapy
'''

image
image
image
image
image

打印效果如下:

image

在做爬虫的时候Python3中很有可能会出现如图1的情况:

image

解决办法如图2的红框部分,把红框上的代码添加上去以后问题即可解决

image
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 216,651评论 6 501
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 92,468评论 3 392
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 162,931评论 0 353
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 58,218评论 1 292
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 67,234评论 6 388
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 51,198评论 1 299
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 40,084评论 3 418
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 38,926评论 0 274
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 45,341评论 1 311
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 37,563评论 2 333
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 39,731评论 1 348
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 35,430评论 5 343
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 41,036评论 3 326
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 31,676评论 0 22
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 32,829评论 1 269
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 47,743评论 2 368
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 44,629评论 2 354

推荐阅读更多精彩内容