240 发简信
IP属地:山东
  • 测试

    https://blog.csdn.net/vip_lvkang/article/details/76614380

  • 美食天下项目接口文档

    接口功能 获取制定项目的分类信息 URL https://www.meishichina.com/ 支持格式 JSON HTTP请求方式 GET 返回字段 接口示例 地址:h...

  • PySpider

    PySpider 国人编写的强大的网络爬虫系统并带有强大的WebUI。采用Python语言编写,分布式架构,支持多种数据库后端,强大的WebUI支持脚本编辑器,任务监视器,项...

  • 部署笔记

    pip3 install scrapyd(服务) pip3 install scrapyd-client(打包) scrapyd-deploy -p xiachufang -...

  • 分布式

    pip install scrapy-redis 修改设置文件 "xcfCrawlSpider:requests":存储的是请求的request对象"xcfCrawlSpid...

  • 下载中间件

    1.创建2.继承的类3.不能用parse方法4.parse_start_url 反爬措施:基于请求头的反爬(合理构建请求头)(请求头参数(user-agent,referer...

  • MySQL

    Mysql 是一个关系型数据库管理系统,由瑞典MySQL AB 公司开发,目前属于 Oracle 旗下产品。它是一款免费开源、小型、关系型数据库管理系统。 为什么要用MySQ...

  • 120
    Redis 练习

    Redis 简介 Redis是一个开源的使用ANSI C语言编写、支持网络、可基于内存亦可持久化的日志型、Key-Value数据库,并提供多种语言的API。从2010年3月1...

  • Scrapy Shell

    Scrapy终端是一个交互终端,我们可以在未启动spider的情况下尝试及调试代码,也可以用来测试XPath或CSS表达式,查看他们的工作方式,方便我们爬取的网页中提取的数据...

  • 120
    Scrapy

    Scrapy框架优点 Scrapy是用纯Python实现一个为了爬取网站数据、提取结构性数据而编写的应用框架,用途非常广泛。框架的力量,用户只需要定制开发几个模块就可以轻松的...

  • 实现通用爬虫

    创建爬虫文件的方式scrapy genspider -t crawl 爬虫文件名 域 爬虫文件继承的类CrawlSpider rules:里面存放的是rule的对像(元组或者...

  • mongodb和python交互

    import pymongo 创建数据库连接"""host=None :ip 127.0.0.1port=None 端口 27017"""mongo_client = pym...

  • beautifulsoup&pyquery

    beautifulsoup和 lxml 一样,Beautiful Soup 也是一个HTML/XML的解析器,主要的功能也是如何解析和提取 HTML/XML 数据。lxml ...

  • mogodb

    use dbname :切换和创建数据库 show dbs :查看所有数据库 db.stats():查看当前数据库信息 db.createCollection("stu"):...

  • 协程&Selenium

    协程:协程拥有自己的CPU寄存器上下文,所占用的资源非常少,当我们在携程中遇到耗时操作时,我们会从一个携程切换到另一个协程,这时会把相关数据保存在CPU寄存器上下文,当耗时操...

  • 120
    一篇文章,教你学会Git

    本文转载于掘金Ruheng,总结非常好,故不再重复造轮子。 在日常工作中,经常会用到Git操作。但是对于新人来讲,刚上来对Git很陌生,操作起来也很懵逼。本篇文章主要针对刚开...

  • 进程与线程的对比

    进程、线程对比 功能 定义的不同 线程自己基本上不拥有系统资源,只拥有一点在运行中必不可少的资源(如程序计数器,一组寄存器和栈),但是它可与同属一个进程的其他的线程共享所在进...

  • 多进程

    进程以及状态 什么是进程 程序:例如xxx.py这是程序,是一个静态的进程:一个程序运行起来后,代码+用到的资源 称之为进程,它是操作系统分配资源的基本单元。不仅可以通过线程...

  • 多线程的创建和使用

    from threading import Threadimport threadingimport timedata = []def download_image(url,...