简介
爬虫是会干扰网站的正常运营
爬虫不能抓取受到法律保护的特定类型的数据或信息
如何避免?
- 时常优化自己的程序,避免干扰网站正常允许
- 在抓取敏感数据时,审查抓取的内容,如果发现了涉及到用户隐私的内容要停止爬取或传播
爬虫再使用场景的分类:
1、通用爬虫
抓取系统重要的组成部分,抓取的是一整张页面数据
2、聚焦爬虫
是建立在通用爬虫的基础之上,抓取的页面中特定的局部内容
3、增量式爬虫
检测网站中数据更新的情况,只会抓取网站中最新更新出来的数据
爬虫的矛与盾
反爬机制:门户网站,可以通过制定相应的策略或者技术手段,防止爬虫程序进行网站数据的爬取
反反爬机制:爬虫程序可以通过制定相关的策略或者技术手段,破解门户网站中具备的反爬机制,从而可以获取门户网站
robots.txt协议
网站中的该协议会约定哪些数据是可以爬取 哪些数据是不能爬取,规约
Http协议和 https协议
概念:就是服务器和客户端进行数据交互的一种形式
常用请求头信息:
user-agent:请求载体的身份标识
connection:请求完毕后是断开链接还是保持连接
常用响应头信息:
content-type:服务器响应回客户端的数据类型
https协议:
安全的超文本传输协议,数据交互是加密的
加密方式:
- 对称密钥加密
- 非对称密钥加密
- 证书密钥加密