BeautifulSoup爬虫之修改Headers以及ip

“ 今天这一篇主要是对bs4爬虫的完善,加上一些反爬虫的操作以及更正规的脚本写法。本来还打算再学两个爬虫的库的,但发现只学爬虫有点枯燥,所以下期换个主题,数据库走起(But爬虫可没有这么简单就完事了,之后还是会温故知新的)”

01 脚本详解


  1. 获取总页数和翻页

总页数就是多写一个函数定位到页数,脚本中的getPage()函数完成。(虽然个人觉得一眼就看出一共就多少页了,直接传个int就完事了)

翻页就是从第一页转到第二页,就是更换url的问题。一般是后缀发生变化,只需要对这部分进行修改。这里注意range()的范围是不包括结束点的,所以要page+1.

    def getUrls(self,page):
        urlHead="https://list.youku.com/category/show/c_96_s_6_d_1_p_"
        urlEnd=".html"
        for i in range(1,page+1):
            url=urlHead+str(i)+urlEnd
            self.urls.append(url)
  1. 添加Header和代理ip

添加headers:

常用的urllib2.urlopen( )里的参数可以直接是url,也可以是一个Request 对象,而urllib2.Request( )就是用来产生request对象的,headers是它的参数之一。通过传入headers对其进行修改(headers必须传入字典类型)

添加代理ip:
urllib2.Proxyhandler( )也需要传入一个字典类型,作用是通过代理去请求url.
添加完ProxyHandler之后,需要构建一个opener,使用urllib2.build_opener( ),参数是各种Handler,作用是把这些handler连起来,如果接下来用到urlopen(),需要把这个opener进行安装。

fakeHeaders = {'User-Agent': "Mozilla/4.0 (compatible; MSIE 6.0; Windows NT 5.1; SV1; AcooBrowser; .NET CLR 1.1.4322; .NET CLR 2.0.50727)"}
request = urllib2.Request(url, headers=fakeHeaders)
proxy = urllib2.ProxyHandler({'http': 'http://121.232.148.60:9000'})
opener = urllib2.build_opener(proxy)
urllib2.install_opener(opener)
  1. 如何随机选择一个Headers和ip

如果只使用一个headers和ip的话,也很容易被封。所以和之前的scrapy一样,建一个列表,然后随机挑选一个即可(其实主要是学习一个字典的取值以及random.choice())

打开一个python文件a.py,构建一个包含header和ip两个列表,在当前目录新建另一个b.py文件,然后import。然后利用random.choice随机挑选一个。(下面是个简单例子)

# -*- coding:utf-8 -*-
header=[{'姓名':'lisa'},{'年龄':'88'},{'爱好':'唱歌'},{'补充':'够了'}]
ip=[{'ip1':'123455'},{'ip2':'3333'},{'ip3':'222333'}]
#  上面是a.py的内容,下面是b.py的内容
# -*- coding:utf-8 *-
import a
import random
exam=a.ip
print(random.choice(exam))
#随机挑选列表ip中的字典
exam1=a.ip[0].get('ip1')
print(exam1)
#获取字典的值
  1. 脚本

(这段脚本必须在python2的环境下运行,以及修改输出的文件路径,其实还有个小bug,听说格式化输出对中文无效,所以输出的排版先凑活一下,容我再研究研究)

# -*-coding:utf-8 -*-
from bs4 import BeautifulSoup
import urllib2
class ITEM(object):
    movieName=None
    movieActor=None
    updateTime=None

class MovieInfo():
    def __init__(self):
        self.url = "https://list.youku.com/category/show/c_96_s_6_d_1_p_2.html"
        self.items=[]
        self.pages=self.getPage()
        self.urls=[]
        self.getUrls(self.pages)
        self.spider(self.urls)
        self.pipelines(self.items)
    def getPage(self):
         htmlContent=self.Response(self.url)
         soup=BeautifulSoup(htmlContent,'lxml')
         tag = soup.find('a', attrs={'charset': '-4-1-30'})
         return int(tag.string)
    def getUrls(self,page):
        urlHead="https://list.youku.com/category/show/c_96_s_6_d_1_p_"
        urlEnd=".html"
        for i in range(1,page+1):
            url=urlHead+str(i)+urlEnd
            self.urls.append(url)

    def spider(self,url):
        for urllist in url:
            htmlContent=self.Response(urllist)
            soup = BeautifulSoup(htmlContent, 'lxml')
            tag = soup.find_all('li', attrs={'class': "yk-col4 mr1"})
            for taglist in tag:
                item = ITEM()  # 类movieItem的实例化
                item.movieName = taglist.find('li', attrs={'class': 'title'}).a.string
                bb = taglist.find('li', attrs={'class': 'title'}).next_sibling
                if bb.next_sibling == None:
                    item.updateTime = bb.string
                else:
                    item.updateTime = bb.next_sibling.string
                aa = taglist.find('li', attrs={'class': 'actor'})
                if aa == None:
                    aaa=u"主演:未指明"
                    item.movieActor=aaa
                else:
                    item.movieActor = aa.get_text()
                self.items.append(item)
    def Response(self,url):
        fakeHeaders = {
            'User-Agent': "Mozilla/4.0 (compatible; MSIE 6.0; Windows NT 5.1; SV1; AcooBrowser; .NET CLR 1.1.4322; .NET CLR 2.0.50727)"}
        request = urllib2.Request(url, headers=fakeHeaders)
        proxy = urllib2.ProxyHandler({'http': 'http://121.232.148.60:9000'})
        opener = urllib2.build_opener(proxy)
        urllib2.install_opener(opener)
        try:
            response = urllib2.urlopen(url)
        except:
            print("获取数据失败")
        else:
            return response.read()
    def pipelines(self,items):
        with open('/home/zy/example.txt','w')as f:
            for item in self.items:
                f.write('{0:<30}\t{1:<20}\t{2:<30}\n'.format(item.movieName.encode("utf8"),item.updateTime.encode('utf8'),item.movieActor.encode("utf8")))
if __name__=='__main__':
    MI=MovieInfo()

注意:Tag.string产生的结果也是unicode类型,与之前文章中讲到的get_text()一样,记得写入文件是要加上encode("utf8")

欢迎关注我的公众号:听见我的voices

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 217,657评论 6 505
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 92,889评论 3 394
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 164,057评论 0 354
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 58,509评论 1 293
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 67,562评论 6 392
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 51,443评论 1 302
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 40,251评论 3 418
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 39,129评论 0 276
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 45,561评论 1 314
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 37,779评论 3 335
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 39,902评论 1 348
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 35,621评论 5 345
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 41,220评论 3 328
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 31,838评论 0 22
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 32,971评论 1 269
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 48,025评论 2 370
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 44,843评论 2 354