让你的爬虫效率提升40倍 python 多进程+协程 爬虫

多进程

关于多进程爬虫和多进程方面的知识可以参考崔庆才的博客python文档


协程

关于协程的介绍,强烈推荐大家看看这份指南


由于GIL的原因,python解释器中总是只有一个线程存在,因此很难利用多线程来达到并行的目的。但多进程并不受此限制,因此我们可以利用python中的多进程来达到并行的目的。同时,我们可以在每个进程中使用协程来实现异步的处理。综上,我们可以利用多进程+协程来极大的提升我们爬虫的效率。


导入模块

from multiprocessing import Pool, cpu_count
import requests
from gevent import monkey
from gevent.pool import Pool as ge_pool
from gevent.queue import Queue
import json
import copy
failed_urls = []      # 用于记录爬取失败的url,以备后续的继续爬取
finished_urls = []    # 用于记录爬取成功的url

分割url,在这里大家需要提前准备好自己的url,因为作者是先爬取了所有所需网页的url后,再来爬取每个url的内容的

def split_urls(urls):
    if not urls:
        print('no url in urls')
        return [urls]
    num_urls = len(urls)
    num_cpus = cpu_count()
    if num_urls < num_cpus:
        return [urls]
    num_urls_per_cpu = int(num_urls / num_cpus)
    splitted_urls = []
    for i in range(num_cpus):
        if i == 0:
            splitted_urls.append(urls[: (i + 1) * num_urls_per_cpu])
        elif i == num_cpus - 1:
            splitted_urls.append(urls[i * num_urls_per_cpu:])
        else:
            splitted_urls.append(urls[i * num_urls_per_cpu: (i + 1) * num_urls_per_cpu])

    return splitted_urls

注意:在这里我们是根据自己机器的cpu核心数来划分url的,这样可以充分利用机器的cpu。不建议开启多于自己机器cpu核心数的线程数量,因为这会造成不必要的线程切换的时间上的浪费。


抓取网页

def crawling_web(url):
    try:
        res = requests.get(url, headers=headers, cookies=cookies,  timeout=10)
        data = json.loads(res.text).get('data')
        print('success crawled {}'.format(url))
        finished_urls.append(url)
    except:
        failed_urls.append(url)
        print('fali to crawle {}'.format(url))

注意:由于作者所爬取的网页比较简单,得到的数据是以json格式展示的,所以不需要过多的处理,如果读者需要对爬取的网页做进一步的处理,可以另写一个处理的函数;读者需要自己准备好自己的headers和cookies以及proxies


协程

def greenlet_crawler(urls):
    greenlet_pool = ge_pool(10)
    for url in urls:
        greenlet_pool.apply_async(crawling_web, (url, ))
    greenlet_pool.join()

我们在这里使用了一个pool来维护10个协程,pool里面的协程异步的爬取网页。


多进程以及调度器

def scheduler(urls):
    global failed_urls
    failed_urls = []
    splitted_urls = split_urls(urls)
    process_pool = Pool(processes=cpu_count())
    for urls in splitted_urls:
        process_pool.apply_async(greenlet_crawler, (urls,))
    process_pool.close()
    process_pool.join()
    if not failed_urls:
        scheduler(copy.deepcopy(failed_urls))

scheduler中多进程部分的代码如下

 process_pool = Pool(processes=cpu_count())
    for urls in splitted_urls:
        process_pool.apply_async(greenlet_crawler, (urls,))
    process_pool.close()
    process_pool.join()

我们开启了与自己机器cpu核心数相同的线程,并使用线程池来维护这些线程。
注意:因为我们无法保证每个网页都被成功抓取下来了,因此我们需要对抓取失败的url再次进行抓取,这里我们在sheduler中使用了递归的方式来保证失败的url会被再次抓取。


if __name__ == '__main__':
    scheduler(urls)

结语: 只要我们能够保持线程的并行以及每个线程内部多个协程之间的异步,我们就可以使用多进程+协程的方式来大幅提升我们的爬虫的效率,作者使用这种方式相比于单线程的爬虫,速度的提升是20-40倍(当然每个人要面对的场景以及所使用的资源都不一样,这个速度的比值仅供参考),最后还是推荐大家在爬虫的时候试试这种多进程+协程的方式。

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 211,948评论 6 492
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 90,371评论 3 385
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 157,490评论 0 348
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 56,521评论 1 284
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 65,627评论 6 386
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 49,842评论 1 290
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 38,997评论 3 408
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 37,741评论 0 268
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 44,203评论 1 303
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 36,534评论 2 327
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 38,673评论 1 341
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 34,339评论 4 330
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 39,955评论 3 313
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 30,770评论 0 21
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 32,000评论 1 266
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 46,394评论 2 360
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 43,562评论 2 349

推荐阅读更多精彩内容