tenliu的爬虫-python的urllib库

学习第一个库:urllib

我们先从urllib开始学习吧。
既然是爬虫。我们就有个抓取的目标啊。我做了一个页面,可以作为我们抓取的目标来练习。在这个页面查你可以查ip代理、ip物理地址、或是headers伪装是否有效、cookies是否添加成功、get请求、post请求等。后面我们会继续用这个页面测试。

http://www.tenliu.top/index.php/httpclient/

urllib常用方法

urllib.urlopen()

urllib.urlopen(url[, data][, proxies])

三个参数:

  • url:url字符串
  • data:[可选],请求参数
  • proxies:[可选],代理ip

urllib.urlencode()

对dict类型进行url编码

urllib.quote()

对字符串进行url编码

在例子中实践

最基本爬虫

直接上代码啦

#!/usr/bin/env python
# -*- coding:utf-8 -*-
import urllib
import urllib2
import requests
import sys
reload(sys) 
sys.setdefaultencoding('utf8')
def first():
    #最基本的
    url = "http://www.tenliu.top/index.php/httpclient/"
    resp = urllib.urlopen(url)
    #页面源码
    print resp.read()
    #返回的头信息
    print resp.info()
    #返回的http状态码
    print resp.getcode()
    #响应的url
    print resp.geturl()
if __name__=="__main__":
    first()

执行一下看看,这个页面就抓下来了,看其实爬虫就是这么简单···

get请求提交数据

urlencode()

请求页面也是可以带参数访问的:
http://www.tenliu.top/index.php/httpclient?country=%E4%B8%AD%E5%9B%BD&ranking=2
点击访问看看

现在有个问题,我们看到在浏览器的地址栏中参数明明显示如下

http://www.tenliu.top/index.php/httpclient?country=中国&ranking=2

为什么复制出来,汉字“中国”被编码了呢?
这就是url编码,其目的是什么呢?我们知道url的参数解析,会按照规定的特殊字符进行解析,例如不同参数之间使用"&"分割,如果一个参数值当中含有这些特殊的字符,岂不是让url解析变得混乱。因此需要url编码。urllib中提供了url编码的函数:urlencode()和quote()

  • urllib.urlencode()。可以对dict进行url编码。这个函数似乎就是urllib存在的意义了,urllib2中就没有这个函数。
  • urllib.quote(),对一般的字符串进行url编码。urllib2中也有这个函数啊,urllib2.quote()。
    我们看一下urllib.urlencode()的使用
#!/usr/bin/env python
# -*- coding:utf-8 -*-
import urllib
import urllib2
import requests
import sys
reload(sys) 
sys.setdefaultencoding('utf8')
def thrid_1():
    #传递数据,get请求。对dict进行url编码,
    data = {'country': '中国', 'ranking': 2}
    params = urllib.urlencode(data)
    url = "http://www.tenliu.top/index.php/httpclient" +"?"+ params
    print url
    resp = urllib.urlopen(url)
    print resp.read()
if __name__=="__main__":
    thrid_1()

quote()

那么urllib.quote()使用场景是什么呢?例如如下页面
http://www.tenliu.top/index.php/httpclient/?query=%E4%B8%AD%E5%9B%BD%202018%20%E8%8A%82%E5%81%87%E6%97%A5
在搜索页面很常见的url,比如百度搜索,url参数是对query的url编码

#!/usr/bin/env python
# -*- coding:utf-8 -*-
import urllib
import urllib2
import requests
import sys
reload(sys) 
sys.setdefaultencoding('utf8')
def thrid_2():
    #传递数据,get请求。urllib.quote对字符串进行url编码。urllib2.quote()有同样的函数。
    url = "http://www.tenliu.top/index.php/httpclient?query="+ urllib.quote("中国 2018 节假日")
    print url
    resp = urllib.urlopen(url)
    print resp.read()
if __name__=="__main__":
    thrid_2()

post请求提交数据

post方式提交数据的页面,爬虫要怎么抓取。post请求提交的参数,并不表现在链接中,可以抓包看看,提交的参数k/v都是什么。
http://www.tenliu.top/index.php/httpclient/
这个页面中有个表单,可以post提交数据,随便填写内容,post提交吧。
这个过程我们抓包分析一下看看
【爬虫-抓包分析】

如何抓包请看
爬虫-抓包分析
例如我填写小明和123,抓包可以看到form表单提交的数据如下:

login_name:小明
login_pwd:123

urllib.urlopen()支持post请求,用法如下:
urllib.urlopen(url,data)
当data为空是,urlopen发送的就是get请求,data有值时,发送的就是post请求。
爬虫代码如下

#!/usr/bin/env python
# -*- coding:utf-8 -*-
import urllib
import urllib2
import requests
import sys
reload(sys) 
sys.setdefaultencoding('utf8')
def fourth():
    #传递数据,post请求
    data = {'login_name': '小明', 'login_pwd': '123'}
    params = urllib.urlencode(data)
    url = "http://www.tenliu.top/index.php/httpclient"
    resp = urllib.urlopen(url, params)
    print resp.read()
if __name__=="__main__":
    fourth()

添加ip代理

很多网站又反扒策略,当一个ip过于频繁的请求这个网站是,这个ip有可能就会被这个网站封掉,一段时间这个ip是无法访问该网站。
或是在大陆国外一些资源是访问不了的,爬虫加上国外的ip代理,就可以抓取了。
urllib.urlopen()支持ip代理设置:
urllib.urlopen(url,proxies)
代码:

#!/usr/bin/env python
# -*- coding:utf-8 -*-
import urllib
import urllib2
import requests
import sys
reload(sys) 
sys.setdefaultencoding('utf8')
def second():
    url = "http://www.tenliu.top/index.php/httpclient?k1=v1&k2=v2"
    proxies = {'http': 'http://www.someproxy.com:3128'}
    resp = urllib.urlopen(url, proxies=proxies)
    print resp.read()
if __name__=="__main__":
    second()

总结

以上基本覆盖了urllib的爬虫方法。现在我们再看看urllib的缺点:
1、最大的问题就是无法伪装,headers无法设置这样写的爬虫很容易被发现进而被ban啊,并且cookies也没法带
2、没有session,登录状态怎么保持
3、···
基于此,python基金会不得不推出urllib2作为urllib的补充版或增强版,而urllib2的表现如何呢,我们下次介绍

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 219,039评论 6 508
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 93,426评论 3 395
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 165,417评论 0 356
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 58,868评论 1 295
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 67,892评论 6 392
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 51,692评论 1 305
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 40,416评论 3 419
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 39,326评论 0 276
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 45,782评论 1 316
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 37,957评论 3 337
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 40,102评论 1 350
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 35,790评论 5 346
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 41,442评论 3 331
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 31,996评论 0 22
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 33,113评论 1 272
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 48,332评论 3 373
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 45,044评论 2 355

推荐阅读更多精彩内容