什么是scrapyd

Scrapyd是部署和运行Scrapy.spider的应用程序。它使您能够使用JSON API部署(上传)您的项目并控制其spider。

特点:

  1. 可以避免爬虫源码被看到。
  2. 有版本控制。
  3. 可以远程启动、停止、删除

scrapyd官方文档:http://scrapyd.readthedocs.io/en/stable/overview.html

安装scrapyd

  1. 安装scrapyd
  • 主要有两种安装方式:
  • pip install scrapyd (安装的版本可能不是最新版本)
  • https://github.com/scrapy/scrapyd 中下载源码, 运行python setup.py install 命令进行安装。

  2.安装 scrapyd-deploy

  • 主要有两种安装方式:
  • pip install scrapyd-client(安装的版本可能不是最新版本)
  • http://github.com/scrapy/scrapyd-client 中下源码, 运行python setup.py install 命令进行安装。

scrapyd的简单使用

1.运行scrapyd

运行命令:scrapyd

然后打开浏览器,输入ip加端口:127.0.0.1:6800(或localhost:6800)

2.发布项目到scrapyd

来到待发布项目的文件夹下,发布前需要修改一下配置文件,打开scrapy.cfg文件;

  1. 首先去掉url前面的注释符号,url是scrapyd服务器的网址
  2. 然后project=tenCent为项目名称,可以随意起名
  3. 修改[deploy]为[deploy:100],表示把爬虫发布到名为100的爬虫服务器上,一般在需要同时发布爬虫到多个目标服务器时使用

最后,打开一个新的终端,运行命令:

scrapyd-deploy <target> -p <project>  --version <version>

  参数解释:

Target:deploy后面的名称。可以为空

Project:自行定义名称,跟爬虫的工程名字无关。

Version:自定义版本号,不写的话默认为当前时间戳。

刷新浏览器页面:

3.创建运行爬虫任务

使用命令:

curl http://localhost:6800/schedule.json -d project=myproject -d spider=spider_name

 然后点击浏览器界面的Jobs

就可以得到该爬虫的相关运行信息。这里的schedule.json只是scrapyd里的一个API接口,scrapyd还提供其他API接口,具体如下。

scrapyd的控制API

所有的API都是通过http协议发送的请求,目前总共10个api

规则是:http://ip:port/api_command.json,有GET和POST两种请求

1)   daemonstatus.json

检查服务状态

curl http://localhost:6800/daemonstatus.json

结果示例:

2)   addversion.json

增加项目到服务器,如果项目已经存在,则增加一个新的版本

POST请求:

  • project (string, required) –项目名
  • version (string, required) –项目版本,不填写则是当前时间戳
  • egg (file, required) –当前项目的egg文件
curl http://localhost:6800/addversion.json -F project=myproject -F version=r23 -F egg=@myproject.egg

结果示例:

3)   schedule.json

启动一个爬虫项目

POST请求:

  • project (string, required) –项目名
  • spider (string, required) –爬虫名,spider类中指定的name
  • setting (string, optional) –自定义爬虫settings
  • jobid (string, optional) –jobid,之前启动过的spider,会有一个id
  • _version (string, optional) –版本号,之前部署的时候的version,只能使用int数据类型,没指定,默认启动最新版本
  • 其他额外的参数都会放入到spider的参数中
curl http://localhost:6800/schedule.json -d project=myproject -d spider=somespider

结果示例:

4)   cancel.json

取消一个 spdier的运行

如果 spider是运行状态,则停止其运行

如果 spider是挂起状态,则删除spider

POST请求:

  • project (string, required) –项目名
  • job (string, required) -jobid
curl http://localhost:6800/cancel.json -d project=myproject -d job=6487ec79947edab326d6db28a2d86511e8247444

结果示例:

5)   listprojects.json

获取当前已上传的项目的列表

GET请求:

curl http://localhost:6800/listprojects.json

结果示例:

6)   listversions.json

获取指定项目的可用版本

GET请求:

  • project (string, required) –项目名
 curl http://localhost:6800/listversions.json?project=myproject

结果示例:

7)   listspiders.json

获取指定版本的项目中的爬虫列表,如果没有指定版本,则是最新版本

GET请求:

  • project (string, required) –项目名
  • _version (string, optional) –版本号
$ curl http://localhost:6800/listspiders.json?project=myproject

结果示例:

8)   listjobs.json

获取指定项目中所有挂起、运行和运行结束的job

GET请求

  • project (string, option) - restrict results to project name
curl http://localhost:6800/listjobs.json?project=myproject | python -m json.tool

结果示例:

{
"status":"ok",
"pending":[
{
"project":"myproject","spider":"spider1",
"id":"78391cc0fcaf11e1b0090800272a6d06"
}
],
"running":[
{
"id":"422e608f9f28cef127b3d5ef93fe9399",
"project":"myproject","spider":"spider2",
"start_time":"2012-09-12 10:14:03.594664"
}
],
"finished":[
{
"id":"2f16646cfcaf11e1b0090800272a6d06",
"project":"myproject","spider":"spider3",
"start_time":"2012-09-12 10:14:03.594664",
"end_time":"2012-09-12 10:24:03.594664"
}
]
}

9)   delversion.json

删除指定项目的指定版本

POST请求

  • project (string, required) - the project name
  • version (string, required) - the project version
curl http://localhost:6800/delversion.json -d project=myproject -d version=r99

结果示例:

10)   delproject.json

删除指定项目,并且包括所有的版本

POST请求

  • project (string, required) - the project name
curl http://localhost:6800/delproject.json -d project=myproject

结果示例:

BUG处理

1、 builtins.KeyError: 'project'

错误信息如下:

解决:

进行post提交时,需要将参数提交放入到 params或 data中,而不是json

如:requests.post(url, params=params)或requests.post(url, data=params)

2、 TypeError: __init__() missing 1 required positional argument: 'self'

修改 spider,增加:

        def __init__(self, **kwargs):
           super(DingdianSpider, self).__init__(self, **kwargs)

3、 redis.exceptions.ConnectionError: Error 10061 connecting to localhost:6379

有类似这样的错误,是由于项目中有连接其他服务,譬如这里是redis数据库,需要先启动对应的服务

scrapy项目部署的更多相关文章

  1. scrapy 项目通过scrapyd部署

    年前的时候采用scrapy 爬取了某网站的数据,当时只是通过crawl 来运行了爬虫,现在还想通过持续的爬取数据所以需要把爬虫部署起来,查了下文档可以采用scrapyd来部署scrapy项目,scra ...

  2. 第三百七十二节,Python分布式爬虫打造搜索引擎Scrapy精讲—scrapyd部署scrapy项目

    第三百七十二节,Python分布式爬虫打造搜索引擎Scrapy精讲—scrapyd部署scrapy项目 scrapyd模块是专门用于部署scrapy项目的,可以部署和管理scrapy项目 下载地址:h ...

  3. 五十一 Python分布式爬虫打造搜索引擎Scrapy精讲—scrapyd部署scrapy项目

    scrapyd模块是专门用于部署scrapy项目的,可以部署和管理scrapy项目 下载地址:https://github.com/scrapy/scrapyd 建议安装 pip3 install s ...

  4. Python爬虫从入门到放弃(二十一)之 Scrapy分布式部署

    按照上一篇文章中我们将代码放到远程主机是通过拷贝或者git的方式,但是如果考虑到我们又多台远程主机的情况,这种方式就比较麻烦,那有没有好用的方法呢?这里其实可以通过scrapyd,下面是这个scrap ...

  5. 创建第一个Scrapy项目

    d:进入D盘 scrapy startproject tutorial建立一个新的Scrapy项目 工程的目录结构: tutorial/ scrapy.cfg # 部署配置文件 tutorial/ # ...

  6. 爬虫(十八):scrapy分布式部署

    scrapy部署神器-scrapyd -->GitHub地址  -->官方文档 一:安装scrapyd 安装:pip3 install scrapyd 这里我在另外一台ubuntu lin ...

  7. Python之 爬虫(二十三)Scrapy分布式部署

    按照上一篇文章中我们将代码放到远程主机是通过拷贝或者git的方式,但是如果考虑到我们又多台远程主机的情况,这种方式就比较麻烦,那有没有好用的方法呢?这里其实可以通过scrapyd,下面是这个scrap ...

  8. scrapyd+gerapy的项目部署

    scrapyd+gerapy的项目部署: 简单学习,后续跟进完善 声明: 1)仅作为个人学习,如有冒犯,告知速删! 2)不想误导,如有错误,不吝指教! 环境配置: scrapyd下载: pip ins ...

  9. jsp项目部署

    每新建一个项目都要发布到服务器,也就是项目部署,在tomcat中的  tomcat\Tomcat 6.0\webapps  路径下就会新建你的项目文件夹 webapps是tomcat的默认访问路径,很 ...

随机推荐

  1. weex不支持类的动态追加

    做一个weex项目时遇到需要根据状态动态改变样式的功能,本来想通过判断属性追加类的方式实现,如下: :class="['long-news',{'bold-txt':noRead}]&quo ...

  2. Android_Bundle

    1 Bundle介绍 Bundle主要用于传递数据:它保存的数据,是以key-value(键值对)的形式存在的. 我们经常使用Bundle在Activity之间传递数据,传递的数据可以是boolean ...

  3. Chrome插件开发(二)

    作为一个前端开发者,我们经常需要和各种各样的接口打交道,很多时候我们的开发环境的域和接口所在的域是不同的,比如我们本地开发环境运行域是localhost,但接口所在的域是www.xx.com,这个时候 ...

  4. phpstudy 升级mysql到mysql5.7

    前言 今天在工作发现一个错误,在往本地导数据表的时候老是报错: ? 1 [Err] 1294 - Invalid ON UPDATE clause for '字段名' column 报错的数据表字段: ...

  5. SQLserver2016对字段是json对象查询

    现在2016内置对json对象的查询支持了.正好项目中用到,做个备忘 如果字段内容是: [{"tagid":"100015","orderid&quo ...

  6. 使用Bind提供域名解析服务(反向解析)

    小知识: 一般来讲域名比IP地址更加的有含义.也更容易记住,所以通常用户更习惯输入域名来访问网络中的资源,但是计算机主机在互联网中只能通过IP识别对方主机,那么就需要DNS域名解析服务了. DNS域名 ...

  7. 一个自动管理项目的Makefile(C语言)

    Linux 是所有嵌入式软件工程师绕不过去的坎, makefile 是在Linux系统中绕不过去的坎. 花了几天时间初步学习和了解了makefile 的作用以及功能,并且制作了一个通用型的makefi ...

  8. 这次,我是如何监控服务器CPU和内存的

    背景 在新项目A中,要结合业务做性能测试.对于做过N次性能测试的我,这次有些巧妇有难无米之炊的感觉.以往的项目,服务器都是部署在AWS或者阿里云,像这样的云服务器厂商是可以通过轻松配置各种Dashbo ...

  9. 欧拉路&&欧拉回路

    T1是欧拉路板子,但我不会,直接爆炸.. 这玩意就是个dfs,但我以前一直以为欧拉路只能$O(nm)$求 今天才知道可以$O(n+m)$ 欧拉路判定: 无向:起点终点为奇度点,其余偶度 有向:起点终点 ...

  10. C语言程序设计100例之(4):水仙花数

    例4    水仙花数 题目描述 一个三位整数(100-999),若各位数的立方和等于该数自身,则称其为“水仙花数”(如:153=13+53+33),找出所有的这种数. 输入格式 没有输入 输出格式 若 ...