利用爬虫Scrapy中的LinkExtractor(链接提取器)爬租房信息(全站爬虫)

  目标爬取某租房网站的房源信息。首先看一下网页,如下图1,爬北京区域所有的租房信息。
1.jpg
1.2.jpg

  从图上可以看到每一条出租房屋信息,主要包括:价格,户型,面积,楼层,装修,类型,所在区,小区,出租方式,朝向,邻近的地铁线。

  首先,进行一次抓包,图2是抓包数据。
2.jpg

  开始上代码:
  创建一个scrapy项目(scrapy startproject Anjuke_Spider)。会生成如下图3的目录。然后,在“spiders”文件夹下创建一个py文档,这里命名为“anjuke_zufang”。然后加入“run”文件。最后的目录如图4.
3.jpg
4.jpg

  下面,跳过scrapy的"settings"设置,直接写主要代码。
  引入所要用的库:

import scrapy
from scrapy.spiders import Rule
from scrapy.linkextractors import LinkExtractor
from Anjuke_Spider.items import AnjukeSpiderItem

  然后创建一个爬虫的类:
class AnjukeSpider(scrapy.spiders.CrawlSpider): name = 'anjuke'
  写起始的url:
start_urls = ['https://bj.zu.anjuke.com/']
  接下来就是本文的核心,LinkExtractor,首先得根据抓包数据和网页进行分析,并不是所有的网页爬取都能使用LinkExtractor。首先得分析需要爬取的网页url。
首先分析不同的目录页url,点击页面下的页码项,去不同目录页,发现其url如下:

https://bj.zu.anjuke.com/?from=navigation 第1页
https://bj.zu.anjuke.com/fangyuan/p2/ 第2页
https://bj.zu.anjuke.com/fangyuan/p3/ 第3页
https://bj.zu.anjuke.com/fangyuan/p4/ 第4页
https://bj.zu.anjuke.com/fangyuan/p5/ 第5页

  其中试着将第1页的url改为“https://bj.zu.anjuke.com/fangyuan/p1/”,访问这个url,发现返回的正是第1页的页面。 这样便发现房源的目录页面有这样的规律,他们url大致一样,改变的仅是最后的页码编号,这可以用如下的代码匹配房源目录页面的url:
https://bj.zu.anjuke.com/fangyuan/p\d+/
  在得到房源目录页面后,点击房源进入房源页面,获取所要的信息,如图5,我们点击网页获取我们需要的信息,可以发现其网址类似于图6所示,形如:

https://bj.zu.anjuke.com/fangyuan/1203399585?from=Filter_1&hfilter=filterlist
https://bj.zu.anjuke.com/fangyuan/1202089286?from=Filter_2&hfilter=filterlist
https://bj.zu.anjuke.com/fangyuan/1200258936?from=Filter_3&hfilter=filterlist

  可以发现不同的网页,在url上主要是url末尾的10位数字不同。url的?号后的内容一般是jquery,有些内容可以去掉这样来简化url。把问号后的内容去掉发现其仍能够访问房源的页面,这样便能找到房源页面的url的规律,可以用如下的代码匹配房源的url:
https://bj.zu.anjuke.com/fangyuan/\d{10}

5.jpg
6.jpg

接下开始使用“Rule”和“LinkExtractor”:

rules = (
        Rule(LinkExtractor(allow='fangyuan/p\d+/'), follow=True),
        Rule(LinkExtractor(allow='https://bj.zu.anjuke.com/fangyuan/\d{10}'), callback='parse_item'),
    )

  第一行“Rule(LinkExtractor(allow='fangyuan/p\d+/'), follow=True)”,用“allow”指定要访问的网址,因为前面已经指定start_urls,所以这里将“follow”指定为“True”,表示在start_urls后面添加,合起来即“https://bj.zu.anjuke.com/fangyuan/p\d+/”,这里访问的是房源的目录页。
第二行“Rule(LinkExtractor(allow='https://bj.zu.anjuke.com/fangyuan/\d{10}'), callback='parse_item')”是在第一行访问房源页的基础上,访问每一个房源页,“callback”指定下面对数据进行处理的方法。
  接下来就该定义一个方法,方法名应该与“callback”指定的方法名相同。

    def parse_item(self, response):
        price = int(response.xpath("//ul[@class='house-info-zufang cf']/li[1]/span[1]/em/text()").extract_first())
        house_type = response.xpath("//ul[@class='house-info-zufang cf']/li[2]/span[2]/text()").extract_first()
        area = int(response.xpath("//ul[@class='house-info-zufang cf']/li[3]/span[2]/text()").extract_first().replace('平方米',''))
        rent_type = response.xpath("//ul[@class='title-label cf']/li[1]/text()").extract_first()
        towards = response.xpath("//ul[@class='house-info-zufang cf']/li[4]/span[2]/text()").extract_first()
        floor = response.xpath("//ul[@class='house-info-zufang cf']/li[5]/span[2]/text()").extract_first()
        decoration = response.xpath("//ul[@class='house-info-zufang cf']/li[6]/span[2]/text()").extract_first()
        building_type = response.xpath("//ul[@class='house-info-zufang cf']/li[7]/span[2]/text()").extract_first()
        district = response.xpath("//ul[@class='house-info-zufang cf']/li[8]/a[2]/text()").extract_first()
        station = response.xpath("//ul[@class='house-info-zufang cf']/li[8]/a[3]/text()").extract_first()
        community = response.xpath("//ul[@class='house-info-zufang cf']/li[8]/a[1]/text()").extract_first()
        subway_line = response.xpath("//ul[@class='title-label cf']/li[3]/text()").extract_first()

  方法parse_item的response返回的便是房源页面的HTML数据,因为没有json数据,所以只能从HTML数据匹配所需要的数据。这里用的Xpath,获取price(租金)、house_type(户型)、area(面积)、rent_type(出租方式)、towards(朝向)、floor(楼层)、decoration(装修)、building_type(楼类型)、district(所在区)、station(临近地铁站)、community(社区、小区)、subway_line(地铁线路)。
最后贴上anjuke_zufang.py的完整代码:

import scrapy
from scrapy.spiders import Rule
from scrapy.linkextractors import LinkExtractor
from Anjuke_Spider.items import AnjukeSpiderItem

class AnjukeSpider(scrapy.spiders.CrawlSpider):

    name = 'anjuke'
    start_urls = ['https://bj.zu.anjuke.com/']

    rules = (
        Rule(LinkExtractor(allow='fangyuan/p\d+/'), follow=True),
        Rule(LinkExtractor(allow='https://bj.zu.anjuke.com/fangyuan/\d{10}'), callback='parse_item'),
    )

    def parse_item(self, response):
        price = int(response.xpath("//ul[@class='house-info-zufang cf']/li[1]/span[1]/em/text()").extract_first())
        house_type = response.xpath("//ul[@class='house-info-zufang cf']/li[2]/span[2]/text()").extract_first()
        area = int(response.xpath("//ul[@class='house-info-zufang cf']/li[3]/span[2]/text()").extract_first().replace('平方米',''))
        rent_type = response.xpath("//ul[@class='title-label cf']/li[1]/text()").extract_first()
        towards = response.xpath("//ul[@class='house-info-zufang cf']/li[4]/span[2]/text()").extract_first()
        floor = response.xpath("//ul[@class='house-info-zufang cf']/li[5]/span[2]/text()").extract_first()
        decoration = response.xpath("//ul[@class='house-info-zufang cf']/li[6]/span[2]/text()").extract_first()
        building_type = response.xpath("//ul[@class='house-info-zufang cf']/li[7]/span[2]/text()").extract_first()
        district = response.xpath("//ul[@class='house-info-zufang cf']/li[8]/a[2]/text()").extract_first()
        station = response.xpath("//ul[@class='house-info-zufang cf']/li[8]/a[3]/text()").extract_first()
        community = response.xpath("//ul[@class='house-info-zufang cf']/li[8]/a[1]/text()").extract_first()
        subway_line = response.xpath("//ul[@class='title-label cf']/li[3]/text()").extract_first()


        item = AnjukeSpiderItem()
        item['price'] = price
        item['house_type'] = house_type
        item['area'] = area
        item['rent_type'] = rent_type
        item['towards'] = towards
        item['floor'] = floor
        item['decoration'] = decoration
        item['building_type'] = building_type
        item['district'] = district
        item['station'] = station
        item['community'] = community
        item['subway_line'] = subway_line

        yield item

  对于scrapy项目,除了要写爬虫的主程序,还需要配置settings,items,pipelines,middleware等文件。还需要修改run文件。对于items文件修改如下:

import scrapy

class AnjukeSpiderItem(scrapy.Item):
    price = scrapy.Field()
    house_type = scrapy.Field()
    area = scrapy.Field()
    rent_type = scrapy.Field()
    towards = scrapy.Field()
    floor = scrapy.Field()
    decoration = scrapy.Field()
    building_type = scrapy.Field()
    district = scrapy.Field()
    community = scrapy.Field()
    station = scrapy.Field()
    subway_line = scrapy.Field()

本项目需要在settings中设置headers,如下:

DEFAULT_REQUEST_HEADERS = {
    'Connection': 'keep-alive',
    'Upgrade-Insecure-Requests': '1',
    'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/68.0.3440.75 Safari/537.36',
    'Accept': 'text/html,application/xhtml+xml,application/xml;q=0.9,image/webp,image/apng,*/*;q=0.8',
    'Accept-Encoding': 'gzip, deflate, br',
    'Accept-Language': 'zh-CN,zh;q=0.9'
}

  run文件如下:

from scrapy.crawler import CrawlerProcess
from scrapy.utils.project import get_project_settings

# 获取settings.py模块的设置
from Anjuke_Spider.spiders.anjuke_zufang import AnjukeSpider

settings = get_project_settings()
process = CrawlerProcess(settings=settings)

# 可以添加多个spider
process.crawl(AnjukeSpider)

# 启动爬虫,会阻塞,直到爬取完成
process.start()

  其次还需要在pipelines中将结果写入一个文件中,本项目将结果写入了mysql数据库,这里不再详细介绍。

  最后爬取的结果如下图:
8.jpg

  其中要注意的是,在爬取的过程中,会触发网站的反爬机制,但是在设置一个随机的时间间隔便能继续进行,在settings中设置:
DOWNLOAD_DELAY = 1.5

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 211,194评论 6 490
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 90,058评论 2 385
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 156,780评论 0 346
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 56,388评论 1 283
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 65,430评论 5 384
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 49,764评论 1 290
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 38,907评论 3 406
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 37,679评论 0 266
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 44,122评论 1 303
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 36,459评论 2 325
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 38,605评论 1 340
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 34,270评论 4 329
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 39,867评论 3 312
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 30,734评论 0 21
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,961评论 1 265
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 46,297评论 2 360
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 43,472评论 2 348

推荐阅读更多精彩内容

  • 1、通过CocoaPods安装项目名称项目信息 AFNetworking网络请求组件 FMDB本地数据库组件 SD...
    阳明先生_X自主阅读 15,969评论 3 119
  • # Python 资源大全中文版 我想很多程序员应该记得 GitHub 上有一个 Awesome - XXX 系列...
    aimaile阅读 26,448评论 6 428
  • Android 自定义View的各种姿势1 Activity的显示之ViewRootImpl详解 Activity...
    passiontim阅读 171,745评论 25 707
  • 曾经被别人看作是第三者,破坏了人家几年的感情,看到她失去自己心爱的人是多么的不堪,在她结束了感情之后,试着想慢慢的...
    小对号阅读 327评论 0 0
  • 一个工人要为你干7天活,总报酬是一块上图金条,他要求每天结帐,你也不愿意提前预付。但你只能在金条上切两刀,金条既不...
    顿悟者阅读 221评论 0 0