python实战计划的第四个项目:爬取美眉图片。
最终战果如下:
代码如下:
import requests
from bs4 import BeautifulSoup
proxies={'http':'45.63.49.141:25'}
headers={'User-Agent':'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/51.0.2704.103 Safari/537.36'}
def down(url):
r=requests.get(url,proxies=proxies,headers=headers)
if r.status_code!=200:
return
fliename=url.split('/')[-2]
target='./b2/{}.jpg'.format(fliename)
with open(target,'wb') as fs:
fs.write(r.content)
print('%s => %s' %(url,target))
def main():
for i in range(1,11):
url='http://weheartit.com/inspirations/taylorswift?page={}'.format(i)
r=requests.get(url,proxies=proxies,headers=headers)
if r.status_code!=200:
continue
soup=BeautifulSoup(r.text,'lxml')
images=soup.select('img.entry-thumbnail')
for image in images:
src = image.get('src')
down(src)
if __name__=='__main__':
main()
总结:
1.Python split()方法
语法:str.split(str="",num=string.count(str))[n]
参数:
str: 表示为分隔符,默认为空格,但是不能为空('')。若字符串中没有分隔符,则把整个字符串作为列表的一个元素
num:表示分割次数。如果存在参数num,则仅分隔成 num+1 个子字符串,并且每一个子字符串可以赋给新的变量
[n]: 表示选取第n个分片
注意:当使用空格作为分隔符时,对于中间为空的项会自动忽略
返回值:返回分割后的字符串列表
例子-常用实例:
>>> u = "www.doiido.com.cn"
#使用默认分隔符
>>> print u.split()
['www.doiido.com.cn']
#以"."为分隔符
>>> print u.split('.')
['www', 'doiido', 'com', 'cn']
#分割0次
>>> print u.split('.',0)
['www.doiido.com.cn']
#分割一次
>>> print u.split('.',1)
['www', 'doiido.com.cn']
#分割两次
>>> print u.split('.',2)
['www', 'doiido', 'com.cn']
#分割两次,并取序列为1的项
>>> print u.split('.',2)[1]
doiido
#分割最多次(实际与不加num参数相同)
>>> print u.split('.',-1)
['www', 'doiido', 'com', 'cn']
#分割两次,并把分割后的三个部分保存到三个文件
>>> u1,u2,u3 = u.split('.',2)
>>> print u1
www
>>> print u2
doiido
>>> print u3
com.cn
例子-去掉换行符
>>> c = '''say
hello
baby'''
>>> print c
say
hello
baby
>>> print c.split('\n')
['say', 'hello', 'baby']
例子-分离文件名和路径
>>> import os
>>> print os.path.split('/dodo/soft/python/')
('/dodo/soft/python', '')
>>> print os.path.split('/dodo/soft/python')
('/dodo/soft', 'python')
例子-一个超级好的例子
>>> str="hello boy<[www.doiido.com]>byebye"
>>> print str.split("[")[1].split("]")[0]
www.doiido.com
>>> print str.split("[")[1].split("]")[0].split(".")
['www', 'doiido', 'com']