from bs4 import BeautifulSoup #导入bs4
import requests #爬虫请求利器 requests
csvfile = open("lianjia.csv","a") #新建一个文件
headers = {'User-Agent':'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/55.0.2883.98 Safari/537.36 Vivaldi/1.6.689.40'} #模拟浏览器
for k in range(1,100):#总共100页
req = requests.get("http://bj.lianjia.com/ershoufang/pg"+str(k),headers = headers)
req.encoding = ('utf8')
csvfile = open("lianjia.csv","a")
soup = BeautifulSoup(req.text, "html.parser")
for tag in soup.find_all("div","info clear"):
tag_addr = tag.find("div", "address")
tag_total_price = tag.find("div","totalPrice")
tag_unit_price = tag.find("div","unitPrice")
addr = tag_addr.text.replace("|",",")
csvfile.write(tag_addr.text +" | " + tag_total_price.text + " | "+ tag_unit_price.text+"\r\n")
csvfile.close()
python 爬取链家
最后编辑于 :
©著作权归作者所有,转载或内容合作请联系作者
- 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
- 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
- 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
推荐阅读更多精彩内容
- 因为期末考试的缘故,本打算一个星期结束的爬虫,拖了很久,不过,也有好处:之前写的时候总是被反爬,这几天复习之余写了...
- 声明:本文讲解的实战内容,均仅用于学习交流,请勿用于任何商业用途! 一、前言 强烈建议:请在电脑的陪同下,阅读本文...