scrapy + scrapyd 部署使用

scrapyd 部署

:example 为项目名称

安装
pip install scrapyd # 快速部署爬虫 服务端
pip install scrapyd-client # 快速部署爬虫 客户端
pip install scrapyd-api # 集成python可调用api
pip install scrapydweb # web页面
pip install logparser # 日志解析
启动 scrapyd
scrapyd -p example
部署 爬虫
scrapyd-deploy -p example

scrapyd-deploy <target> -p example
添加爬虫
curl http://localhost:6800/schedule.json -d project=example -d spider=dongtan
取消爬虫
curl http://localhost:6800/cancel.json -d project=example -d job=68d25db0506111e9a4c0e2df1c2eb35b
# job 为可在web查看
启动scrapyweb
# 第一次运行 一下命令 生成一个配置文件 scrapydweb_settings_v10.py
scrapydweb 
# 第二次运行 则进行运行 同目录下
scrapydweb 
启动logparser
# 修改 scrapydweb_settings_v10.py 一下为Ture 会自动生成 stats.json 在日志目录下,可以重启一下scrapydweb
ENABLE_LOGPARSER = True

# 然后运行 就可以了
logparser 

scrapy.cfg
[settings]
default = example.settings
[deploy]
url = http://localhost:6800/
project = example
[deploy:djwq]
url = http://localhost:2100/
project = example
# scrapyd-deploy -p example
# scrapyd-deploy djwq -p example
©著作权归作者所有,转载或内容合作请联系作者
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

推荐阅读更多精彩内容

  • 之前用scrapy爬取了知乎用户数据,由于数据量很大,便考虑采取分布式提升爬取效率,便有的此文。爬虫源码为http...
    最好时刻阅读 1,926评论 0 0
  • scrapyd是一个用于部署和运行scrapy爬虫的程序,它允许你通过JSONAPI来部署爬虫项目和控制爬虫运行 ...
    拾柒丶_8257阅读 3,473评论 0 3
  • 使用Scrapyd部署爬虫 为什么要用Scrapyd? Scrapyd是scrapinghub官方提供的爬虫管理、...
    叫我老村长阅读 1,231评论 0 2
  • 好长时间没有找到这种感觉了,昨天下午学习完以后,来到车上正打算回家,停车的地方离东昌湖特别的近,我说天还早不如我们...
    孙兰昌阅读 350评论 0 0
  • 作者:四回 是欢是喜 哀或怨我都不懂 是你是我 亦或是不同 差异是你对我的问号 相同是你和我的傻笑 难受是无能为力...
    四回阅读 5,940评论 59 347