对于网页,除了传统的css框架以外,额外可以尝试的一个css框架是semantic ui,我们可以根据这个框架结合html写一些简单的静态网页,有如下步骤
1.使用基础样式
2.使用“形容词”改变样式
3.使用嵌套制作网页片段
而对于css样式的调用,在<head></head>
这个标签内使用<link rel="stylesheet" href="css/semantic.css" media="screen" title="no title" charset="utf-8">
来调用,其中href的值为css的样式路径,一定要加载正确
- 关于基础样式
先来看下面这段代码
<div class="ui segment"
</div>
这是一个基础的样式,我们可以利用segment把一个网页分为header、body(content)、footer。每一个segment都可以看作是一个片段。
- 关于“形容词”改变样式
先来看下面这段代码
<div class="ui inverted vertical segment">
</div>
来看几个常用的形容词,inverted(翻转,一般后面跟颜色)、vertical(圆角消失、阴影消失、消除段落间隙)、(very)padded(内聚,限制文字与边框有一定距离)、container(收紧、内敛聚中),另外像big、tiny等形容词也可以使用
说到这,有必要提供一个semantic ui的中文网站,Semanti UI,当然也可以使用英文咯
- 关于嵌套
在基本样式里面定义了segment片段,我们可以在segment内再进行定义segment或者其他来制作片段的“卡片”,来3段代码
<div class="ui inverted vertical segment">
<div class="ui image">
![](images/banner.jpg)
</div>
</div>
片段内插入图片
<div class="ui vertical segment">
<div class="ui container segment">
<h1 class="ui header">First blog</h1>
<p>
古有为中华之崛起而读书,今有为了出去浪而coding
</p>
<button type="button" name="button" class="ui inverted blue button">Read more</button>
</div>
片段内插入另一个segment形成卡片,插入<h1 class="ui header">First blog</h1>
形成段落内一级标题,当然还有二级三级...,插入<p></p>
填充卡片内容。在使用嵌套时候,要注意父子关系,目前我们了解到的没有闭合标签的有2个,一个是img,一个是link,其他的都要注意闭合标签。下面是一个简单的静态页面
关于HTTP状态码
HTTP状态码:
200系列:200、201.....代表成功
300系列:304.......代表没有修改
400系列:404.......代表没找到
500系列:500、502.......代码服务不响应
HTTP的url匹配:
访问URL:http://localhsot:8000/detail/
- static/images/default.jpg -> http://localhsot:8000/detail/static/images/default.jpg
- /static/images/default.jpg -> http://localhsot:8000/static/images/default.jpg
爬虫的一点总结
1.请求链接
分析html拿到需要的数据
2.数据匹配和提取
插入数据
3.数据的整理--去重
处理网络Bug
4.提高爬虫效率--多线程问题
爬虫框架浅谈
Python开源的爬虫框架Scrapy是一个快速,高层次的屏幕抓取和web抓取框架,用于抓取web站点并从页面中提取结构化的数据。Scrapy用途广泛,可以用于数据挖掘、监测和自动化测试。
Scrapy主要包括了以下组件:
1.引擎(Scrapy)
用来处理整个系统的数据流处理, 触发事务(框架核心)
调度器(Scheduler)
用来接受引擎发过来的请求, 压入队列中, 并在引擎再次请求的时候返回. 可以想像成一个URL(抓取网页的网址或者说是链接)的优先队列, 由它来决定下一个要抓取的网址是什么, 同时去除重复的网址
2.下载器(Downloader)
用于下载网页内容, 并将网页内容返回给蜘蛛(Scrapy下载器是建立在twisted这个高效的异步模型上的)
3.爬虫(Spiders)
爬虫是主要干活的, 用于从特定的网页中提取自己需要的信息, 即所谓的实体(Item)。用户也可以从中提取出链接,让Scrapy继续抓取下一个页面
4.项目管道(Pipeline)
负责处理爬虫从网页中抽取的实体,主要的功能是持久化实体、验证实体的有效性、清除不需要的信息。当页面被爬虫解析后,将被发送到项目管道,并经过几个特定的次序处理数据。
5.下载器中间件(Downloader Middlewares)
位于Scrapy引擎和下载器之间的框架,主要是处理Scrapy引擎与下载器之间的请求及响应。
6.爬虫中间件(Spider Middlewares)
介于Scrapy引擎和爬虫之间的框架,主要工作是处理蜘蛛的响应输入和请求输出。
7.调度中间件(Scheduler Middewares)
介于Scrapy引擎和调度之间的中间件,从Scrapy引擎发送到调度的请求和响应。
Scrapy运行流程大概如下:
1.引擎从调度器中取出一个链接(URL)用于接下来的抓取
2.引擎把URL封装成一个请求(Request)传给下载器
3.下载器把资源下载下来,并封装成应答包(Response)
4.爬虫解析Response
5.解析出实体(Item),则交给实体管道进行进一步的处理
6.解析出的是链接(URL),则把URL交给调度器等待抓取