Python爬虫,高清美图我全都要!爬取你想要的,嘿嘿嘿

前言

想必大家都是比较喜欢美女图片吧!没事不要隐瞒了,爱美之心人人皆知。小编也是最近也是比较无聊就爬取了一下了壁纸、图片啥的。于是加上了一些代码,把整个网页的壁纸全部都爬取下来了。

目录一:概览

在电脑上,创建一个文件夹用来存放爬取彼岸桌面的图片

此文件夹下有25个文件夹,对应分类

每个分类文件夹下有若干个文件夹,对应页码

页码文件夹下,存放图片文件

目录二:环境准备

环境准备:怎么使用VSCode编写Python代码?

requests:通过http请求获取页面,官方文档

lxml:是python的一个解析库,支持HTML和XML的解析,支持XPath解析方式,而且解析效率非常高

Beautiful Soup4:可以从HTML或XML文件中提取数据

在终端中分别输入以下pip命令,安装它们

python -m pip install beautifulsoup4

python -m pip install lxml

python -m pip install requests

注意:光理论是不够的。这里送大家一套2020最新企业Pyhon项目实战视频教程,点击此处 进来获取 跟着练习下,希望大家一起进步哦!

目录三:分析页面结构

因为我的电脑的分辨率为1920 × 1080,所以我爬取的图片的分辨率为此

彼岸桌面壁纸提供了许多分类供我们浏览:日历、动漫、风景、美女、游戏、影视、动态、唯美、设计…

4k分类下的壁纸是该网站收益的重要资源,而且我们有4k壁纸的需求,对其不进行爬取

CSS选择器:#header > div.head > ul > li:nth-child(1) > div > a,定位到包裹分类的a标签

我以唯美分类下的壁纸,来讲解接下来怎么爬取图片

1.总共有73页,除了最后一页,每页有18张图片

但是在代码中我们最好需要自动获取总页码,嗯,彼岸桌面壁纸网站的结构是真的舒服,基本上每个页码的HTML结构都是类似的

CSS选择器:div.page a,定位到包裹页码数的a标签,只有6个

并且每页的第三张图片都是一样的广告,需要在代码中把它过滤掉

每个分页的超链接很清晰:http://www.netbian.com/weimei/index_x.htm

x 恰好为该页的页码

注意:在分类下看到的图片是略缩图,分辨率都较低;要得到1920 × 1080分辨率的该图,需要进行两次跳转

以下图为例

在分类页面中我们可以直接获取该图片的url,但很可惜,它的分辨率并不令人满意;

通过检查,很明显的看到,在分类页中展示的每一个图片都指向另一个超链接

CSS选择器:div#main div.list ul li a,定位到包裹图片的a标签

点击该图片,第一次跳转,转到新的链接,页面中显示有下列内容:

CSS选择器:div#main div.endpage div.pic div.pic-down a,定位到包裹图片的a标签

点击下载壁纸(1920 × 1080)的按钮,第二次跳转,转向一个新的链接,终于达成目的,该链接中显示的图片的分辨率为 1920 × 1080

一波三折,终于给我找到了该图片的1920 × 1080高清图

CSS选择器:div#main table a img,定位到该图片的img标签

经过本人爬取检验,其中有极个别图片由于很多零碎的问题而下载失败,还有少部分图片因为网站虽然提供1920 × 1080分辨率的下载按钮却给了其它分辨率

目录四:代码分析

下文中凡是 加粗内容,请按照我的解释,根据自身情况进行修改

第一步:设置全局变量

index = 'http://www.netbian.com' # 网站根地址

interval = 10 # 爬取图片的间隔时间

firstDir = 'D:/zgh/Pictures/netbian' # 总路径

classificationDict = {} # 存放网站分类子页面的信息

index ,要爬取网页的网站根地址,代码中爬取图片需要使用其拼接完整url

interval,我们去爬取一个网站的内容时要考虑到该网站服务器的承受能力,短时间内爬取该网站大量内容会给该网站服务器造成巨大压力,我们需要在爬取时设置间隔时间

单位:秒

由于我要爬取彼岸桌面网站的全部高清图片,若集中在短时间内爬取,一方面会给网站服务器巨大的压力,一方面网站服务器会将我们的链接强制断掉,所以我设置的每张图片爬取时间间隔为10秒;如果你只是爬取少量图片,可以将间隔时间设置的短点

firstDir,爬取图片存放在你电脑上的根路径;代码中爬取图片时,在一级目录下会按照彼岸桌面唯美分类下的分页页码生成文件夹并存放图片

classificationDict,存放网站下分类指向的url、对应的分类文件夹路径

第二步:获取页面筛选后的内容列表

写一个函数,获取页面筛选后的内容数组传进来两个参数

url:该网页的url

select:选择器(与CSS中的选择器无缝对接,我很喜欢,定位到HTML中相应的元素)

返回一个列表

def screen(url, select):

html = requests.get(url = url, headers = UserAgent.get_headers()) # 随机获取一个headers

html.encoding = 'gbk'

html = html.text

soup = BeautifulSoup(html, 'lxml')

return soup.select(select)

headers,作用是假装是个用户访问该网站,为了保证爬虫的成功率,每一次爬取页面随机抽取一个headers

encoding ,该网站的编码

第三步:获取全部分类的url

# 将分类子页面信息存放在字典中

def init_classification():

url = index

select = '#header > div.head > ul > li:nth-child(1) > div > a'

classifications = screen(url, select)

for c in classifications:

href = c.get('href') # 获取的是相对地址

text = c.string # 获取分类名

if(text == '4k壁纸'): # 4k壁纸,因权限问题无法爬取,直接跳过

continue

secondDir = firstDir + '/' + text # 分类目录

url = index + href # 分类子页面url

global classificationDict

classificationDict[text] = {

'path': secondDir,

'url': url

}

接下来的代码,我以唯美分类下的壁纸,来讲解怎么通过跳转两次链接爬取高清图片

第四步:获取分类页面下所有分页的url

大部分分类的分页大于等于6页,可以直接使用上面定义的screen函数,select定义为div.page a,然后screen函数返回的列表中第6个元素可以获取我们需要的最后一页页码

但是,有的分类的分页小于6页,比如:

需要重新写一个筛选函数,通过兄弟元素来获取

# 获取页码

def screenPage(url, select):

html = requests.get(url = url, headers = UserAgent.get_headers())

html.encoding = 'gbk'

html = html.text

soup = BeautifulSoup(html, 'lxml')

return soup.select(select)[0].next_sibling.text

获取分类页面下所有分页的url

url = 'http://www.netbian.com/weimei/'

select = '#main > div.page > span.slh'

pageIndex = screenPage(secondUrl, select)

lastPagenum = int(pageIndex) # 获取最后一页的页码

for i in range(lastPagenum):

if i == 0:

url = 'http://www.netbian.com/weimei/index.htm'

else:

url = 'http://www.netbian.com/weimei/index_%d.htm' %(i+1)

由于该网站的HTML结构非常清晰,所以代码写起来简单明了

第五步:获取分页下图片所指url

通过检查,可以看到获取到的url为相对地址,需要将其转化为绝对地址

select = 'div#main div.list ul li a'

imgUrls = screen(url, select)

通过这两行代码获取的列表中的值,形如此:

<a href="//www.greatytc.com/desk/21237.htm" target="_blank" title="星空 女孩 观望 唯美夜景壁纸 更新时间:2019-12-06"><img alt="星空 女孩 观望 唯美夜景壁纸" src="http://img.netbian.com/file/newc/e4f018f89fe9f825753866abafee383f.jpg"/><b>星空 女孩 观望 唯美夜景壁纸</b></a>

需要对获取的列表进行处理

获取a标签中的href属性值,并将其转化为绝对地址,这是第一次跳转所需要的url

第六步:定位到 1920 × 1080 分辨率图片

# 定位到 1920 1080 分辨率图片

def handleImgs(links, path):

for link in links:

href = link.get('href')

if(href == 'http://pic.netbian.com/'): # 过滤图片广告

continue

# 第一次跳转

if('http://' in href): # 有极个别图片不提供正确的相对地址

url = href

else:

url = index + href

select = 'div#main div.endpage div.pic div.pic-down a'

link = screen(url, select)

if(link == []):

print(url + ' 无此图片,爬取失败')

continue

href = link[0].get('href')

# 第二次跳转

url = index + href

# 获取到图片了

select = 'div#main table a img'

link = screen(url, select)

if(link == []):

print(url + " 该图片需要登录才能爬取,爬取失败")

continue

name = link[0].get('alt').replace('\t', '').replace('|', '').replace(':', '').replace('\\', '').replace('/', '').replace('*', '').replace('?', '').replace('"', '').replace('<', '').replace('>', '')

print(name) # 输出下载图片的文件名

src = link[0].get('src')

if(requests.get(src).status_code == 404):

print(url + ' 该图片下载链接404,爬取失败')

print()

continue

print()

download(src, name, path)

time.sleep(interval)

第七步:下载图片

# 下载操作

def download(src, name, path):

if(isinstance(src, str)):

response = requests.get(src)

path = path + '/' + name + '.jpg'

while(os.path.exists(path)): # 若文件名重复

path = path.split(".")[0] + str(random.randint(2, 17)) + '.' + path.split(".")[1]

with open(path,'wb') as pic:

for chunk in response.iter_content(128):

pic.write(chunk)

目录五:代码的容错能力

一:过滤图片广告

if(href == 'http://pic.netbian.com/'): # 过滤图片广告

continue

二:第一次跳转页面,我们需要的链接

彼岸壁纸网站,对第一次跳转页面的链接,给的都是相对地址

但是极个别图片直接给的绝对地址,而且给的是该分类网址,所以需要做两步处理

if('http://' in href):

url = href

else:

url = index + href

...

if(link == []):

print(url + ' 无此图片,爬取失败')

continue

下面是第二次跳转页面所遇问题

三:由于权限问题无法爬取图片

if(link == []):

print(url + "该图片需要登录才能爬取,爬取失败")

continue

四:获取img的alt,作为下载图片文件的文件名时,名字中携带\t 或 文件名不允许的特殊字符:

在Python中,’\t’ 是转义字符:空格

在windows系统当中的文件命名,文件名称中不能包含 \ / : * ? " < > | 一共9个特殊字符

name = link[0].get('alt').replace('\t', '').replace('|', '').replace(':', '').replace('\\', '').replace('/', '').replace('*', '').replace('?', '').replace('"', '').replace('<', '').replace('>', '')

五:获取img的alt,作为下载图片文件的文件名时,名字重复

path = path + '/' + name + '.jpg'

while(os.path.exists(path)): # 若文件名重复

path = path.split(".")[0] + str(random.randint(2, 17)) + '.' + path.split(".")[1]

六:图片链接404

比如

if(requests.get(src).status_code == 404):

print(url + ' 该图片下载链接404,爬取失败')

print()

continue

目录六:完整代码

蓝奏云链接:Python爬虫,高清美图我全都要(彼岸桌面壁纸).zip

下载下来解压后,有两个python文件

最后

动动你们发财的小手,给小编一个关注就是小编最大的动力,谢谢!

©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 196,698评论 5 463
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 82,711评论 2 373
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 143,795评论 0 325
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 52,699评论 1 267
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 61,567评论 5 358
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 46,423评论 1 275
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 36,822评论 3 387
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 35,467评论 0 254
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 39,755评论 1 293
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 34,789评论 2 314
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 36,577评论 1 326
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 32,418评论 3 315
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 37,837评论 3 300
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 29,054评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 30,355评论 1 254
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 41,820评论 2 343
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 41,027评论 2 338