安装第三方库requests库
测试requsets库
显示200表示测试正常
requests方法是基础方法,其他的6个基本方法都是调用requesta方法来实现的
get方法是用这样的形式来封装的
我们可以用type来显示 r 的类型
我们还可以用r.headers来请求返回,获得页面的头部信息
比如从网页获得的图片资源是二进制形式的
那我们可以用r.content来还原这个图片
在使用get方法获取网上资源的时候,有这么一个基本的流程:
首先用r.status_code来检查它的状态,如果是200说明访问正常,不是则说明出错了
如果是200,则再使用 r.text r.enconding r.apparent_encoding r.content 等来解析返回的内容
我们对百度进行访问,r.text之后发现都是乱码
使用 r.apparent_encoding 替代了 r.encoding 之后,乱码变成了一些可读的信息
着是为什么呢?
encoding从头部相关字段中提取编码,猜测其编码的方式
而 apparent_encoding则是实实在在分析网页内容,得出其编码的方式
所以当我们用encoding不能正确解码返回的内容时要用apparent_encoding来解码其中的信息
下面介绍爬取网页的通用代码框架
requests get使用时还是会有一定的风险的
所以异常的处理就非常重要了
使用python中的 try except 代码
在 try 中,有四行代码
第一行是一个get方法,我们去请求一个url链接
再根据它的responds返回的结果是不是200来判断有没有异常
第三行我们用apparent_encoding来替代encoding来保证返回时的解码是正确的
最后return r.text表示我们返回网页的内容
在这个方法中,我们通过raise_for_status 有效的判断网页是否异常
这样的通用代码框架,有效的处理我们在访问和爬取网页过程中的一些错误
或者网络链接不稳定的一些现象
把这个代码框架封装成一个函数叫做 getHTMLText(url)
HTTP协议及 requests 库方法
7个主要方法
就像电脑里存储文件的路径一样,只不过这个路径不在电脑里,在internet上
这6个方法就是requests库的6个主要函数对应的主要功能
我们通过get的方法可以把网上url的资源爬下来
有时候资源很大或者把资源拿下来的代价很大,这时候通过请求head来获得他的头部信息并且分析这个资源的大概内容
post不改变url本身的资源,只是在后面添加用户所提交的新的资源
put是将用户的资源
用text发现资源的内容为空,所以使用head方法可以占用很少的资源来获取内容的概要信息
我们更新一个字典,使用post方法,可以发现 键字对(?)被默认为form表单的字段下
如果我们提交的是一个字符串,则显示是在data下
着是post方法根据用户提交内容的不同,进行一些相关的整理
put方法与post方法类似,只不过它能将原有的方法覆盖掉
requests库主要方法解析
method共有七种功能,他们对应的分别是HTTP协议所对应的请求功能
前六种我们都接触过
options实际上是向服务器获取一些服务器跟客户端能够打交道的参数,这里面并不与获取资源直接相关,所以我们在使用中用的比较少
我们再增加一个https的代理服务器,这样可以很好的隐藏源服务器的IP地址信息
这样,我们在访问网页时,IP地址就是代理服务器的IP地址
能够有效的防止对爬虫的逆追踪
小结
requests库一共有7个对外使用的方法,分别是:
常常是由于网络安全的请求,我们很难向一个 url 去发起 post、put、patch、delete这四个请求
作为requests库来说,我们在使用爬虫的时候,最常使用的就是 get
对于某些特别大的url链接,我们使用 head 方法来获得它的资源概要
基础爬虫要掌握的代码框架
所以一定要用 try except 的方式来保证网络连接的异常能够被处理
很核心的一行代码,也就是responds对象的raise_for_status函数,检查是否有异常
如果不是200,则except能捕获到所有网络连接错误时的异常