概述

pyspider 是一个支持任务监控、项目管理、多种数据库,具有 WebUI 的爬虫框架,它采用 Python 语言编写,分布式架构。详细特性如下:

  • 拥有 Web 脚本编辑界面,任务监控器,项目管理器和结构查看器;
  • 数据库支持 MySQL、MongoDBRedis、SQLite、Elasticsearch、PostgreSQL、SQLAlchemy;
  • 队列服务支持 RabbitMQ、Beanstalk、Redis、Kombu;
  • 支持抓取 JavaScript 的页面;
  • 组件可替换,支持单机、分布式部署,支持 Docker 部署;
  • 强大的调度控制,支持超时重爬及优先级设置;
  • 支持 Python2&3。

PySpider 主要分为 Scheduler(调度器)Fetcher(抓取器)Processer(处理器)三个部分,整个爬取过程受到 Monitor(监控器)的监控,抓取的结果被 Result Worker(结果处理器)处理。

基本流程为:Scheduler 发起任务调度,Fetcher 抓取网页内容,Processer 解析网页内容,再将新生成的 Request 发给 Scheduler 进行调度,将生成的提取结果输出保存。

PySpider架构

PySpider与Scrapy对比

PySpider Scrapy
可视化 拥有 WebUI,爬虫的编写、调试可在 WebUI 中进行 采用代码、命令行操作,实现可视化需对接 Portia
JS渲染爬取 支持使用 PhantomJS 对 JavaScript 渲染页面的采集 需对接 Scrapy-Splash 组件
解析 内置了 PyQuery 作为选择器 对接了 XPath、CSS 选择器、正则匹配
扩展 扩展性弱 模块之间耦合度低,扩展性强,如:对接 Middleware、 Pipeline 等组件实现更强功能

总的来说,PySpider 更加便捷,Scrapy 扩展性更强,如果要快速实现爬取优选 PySpider,如果爬取规模较大、反爬机制较强,优选 Scrapy。

安装/运行

安装

PySpider目前已不再维护,仅支持到python3.6,所以安装3.6以上的版本会出现报错问题,可按以下方式进行安装:

安装wheel(已安装可跳过)

conda install wheel

安装pycurl(已安装可跳过)

conda install pycurl

安装pyspider

pip install pyspider

安装phantomjs

解压后将bin目录下的phantomjs.exe复制到python.exe文件所在目录

找到../Python/Lib/python3.7/site-packages/pyspider/run.py../Python/Lib/site-packages/pyspider/fetcher/tornado_fetcher.py../Python/Lib/site-packages/pyspider/webui/app.py,将文件里面的async换一个名字(非关键字)就可,例如asynch

找到 ../Python/Lib/site-packages/pyspider/webui/webdav.py文件,将'domaincontroller': NeedAuthController(app),修改成:

'http_authenticator':{
'HTTPAuthenticator':NeedAuthController(app)
},

降低wsgidav版本

python -m pip uninstall wsgidav # 卸载
python -m pip install werkzeug==1.0.0 #安装1.0.0版本

运行

cmd窗口中输入pyspider或者pyspider all启动全部

浏览器访问 http://localhost:5000/ ,能访问成功则表明运行成功

项目开发

创建项目

Create-->Project Name-->Start URL(可省略到代码中再写)-->Create

调试代码


源码解读

#!/usr/bin/env python
# -*- encoding: utf-8 -*-
# Created on 2021-07-04 20:31:18
# Project: tripadvisor from pyspider.libs.base_handler import * class Handler(BaseHandler):
crawl_config = { # 全局参数设置,请求头和cookies可以在这里设置(传入关键字及对应的参数即可)
}
def __init__(self): # 初始配置
self.base_url = 'https://www.tripadvisor.cn/Attractions-g298555-Activities?subcategory=49&subtype=0' @every(minutes=24 * 60) # 装饰器,@every设置多久爬取一次(24*60为一天一次)
def on_start(self): # 开始爬取的入口
'''
crawl和requests有相同的功能 ,可以支持 get(默认) 和 post,常用的参数有:
data: 想要的提交数据
callback: 执行完crawl后要调用的回调函数
method: 指定访问方法
files: 上传文件,{'key': ('file.name': 'content')}
headers: 请求头,类型dict
cookies: 请求的Cookies,类型dict
timeout: 请求内容里最大等待秒数.默认值:120
connect_timeout: 指定请求时链接超时时间,单位秒,默认值:20
proxy: 设置代理服务器,暂时只支持http代理
'''
self.crawl(self.base_url, callback=self.index_page,fetch_type='js') # fetch_type='js' 爬取异步数据
# index_page和detail_page只是初始脚本中的回调函数,除了on_start,其他的函数名可以自定
'''
@config:
age: 设置任务的有效期限,在这个期限内目标爬取的网页被认为不会进行修改,以秒为单位
priority: 设定任务优先级,越大代表有越优先执行
auto\_recrawl: 设置是否每到age时间重新爬取一次,默认值是:False
priority: 这个参数用来指定任务的优先级,数值越大越先被执行,默认值为 0
retries: 任务执行失败后重试次数,默认值是 3
itag: 任务标记值,此标记会在抓取时对比,如果这个值发生改变,不管有效期有没有到都会重新抓取新内容.多数用来动态判断内容是否修改或强制重爬,默认值是 None
'''
@config(age=10 * 24 * 60 * 60) # 有效期限为十天,十天内的数据不会被重复爬取
def index_page(self, response):
for each in response.doc('a[href^="http"]').items():
self.crawl(each.attr.href, callback=self.detail_page,fetch_type='js') @config(priority=2)
def detail_page(self, response):
return {
'''
response:
crawl: 返回的对象是 response 对象
response.url: 返回最后的URL地址
response.text: 请求响应的文本格式内容(如果Response.encoding是None或chardet模块可用, 响应内容会自动被解析为指定的编码)
response.doc: 本方法会调用PyQuery库用返回的内容生成一个PyQuery对象以方便使用
response.json: 本方法会调用JSON相关库来解析返回的内容
response.status_code: 返回响应的状态码
response.headers: 请求响应的头信息,dict格式
response.cookies: 响应的cookies
response.time: 抓取使用的时间
'''
"url": response.url,
"title": response.doc('title').text(), # text() 返回text文本
"html": response.doc('title').html() # html() 返回网页,包含标签
}

案例

猫途鹰

目标网站:猫途鹰(Tripadvisor)网站

ing...

微博登录(与selenium结合)

汽车之家

百度热榜

参考链接


视频:

程序媛计划直播——python爬虫框架Pyspider

PySpider框架基本用法

博客:

Python 爬虫(七):pyspider 使用

PySpider官方英文文档

PySpider非官方中文文档

pyspider安装详细指南

Python爬虫之pyspider框架

Python爬虫之PySpider框架的更多相关文章

  1. 适合新手练习的Python项目有哪些?Python爬虫用什么框架比较好?

    前言 本文的文字及图片来源于网络,仅供学习.交流使用,不具有任何商业用途,版权归原作者所有,如有问题请及时联系我们以作处理. Python爬虫一般用什么框架比较好?一般来讲,只有在遇到比较大型的需求时 ...

  2. python爬虫之scrapy框架

    Scrapy是一个为了爬取网站数据,提取结构性数据而编写的应用框架. 其可以应用在数据挖掘,信息处理或存储历史数据等一系列的程序中.其最初是为了页面抓取 (更确切来说, 网络抓取 )所设计的, 也可以 ...

  3. 【转】Python爬虫(6)_scrapy框架

    官网链接:https://docs.scrapy.org/en/latest/topics/architecture.html 性能相关 在编写爬虫时,性能的消耗主要在IO请求中,当单进程单线程模式下 ...

  4. (转)python爬虫----(scrapy框架提高(1),自定义Request爬取)

    摘要 之前一直使用默认的parse入口,以及SgmlLinkExtractor自动抓取url.但是一般使用的时候都是需要自己写具体的url抓取函数的. python 爬虫 scrapy scrapy提 ...

  5. Python爬虫之一 PySpider 抓取淘宝MM的个人信息和图片

    ySpider 是一个非常方便并且功能强大的爬虫框架,支持多线程爬取.JS动态解析,提供了可操作界面.出错重试.定时爬取等等的功能,使用非常人性化. 本篇通过做一个PySpider 项目,来理解 Py ...

  6. Python爬虫进阶(Scrapy框架爬虫)

    准备工作:           配置环境问题什么的我昨天已经写了,那么今天直接安装三个库                        首先第一步:                           ...

  7. python爬虫随笔-scrapy框架(1)——scrapy框架的安装和结构介绍

    scrapy框架简介 Scrapy,Python开发的一个快速.高层次的屏幕抓取和web抓取框架,用于抓取web站点并从页面中提取结构化的数据.Scrapy用途广泛,可以用于数据挖掘.监测和自动化测试 ...

  8. python爬虫之scrapy框架介绍

    一.什么是Scrapy? Scrapy是一个为了爬取网站数据,提取结构性数据而编写的应用框架,非常出名,非常强悍.所谓的框架就是一个已经被集成了各种功能(高性能异步下载,队列,分布式,解析,持久化等) ...

  9. python爬虫中scrapy框架是否安装成功及简单创建

    判断框架是否安装成功,在新建的爬虫文件夹下打开盘符中框输入cmd,在命令中输入scrapy,若显示如下图所示,则说明成功安装爬虫框架: 查看当前版本:在刚刚打开的命令框内输入scrapy versio ...

随机推荐

  1. Redis配置及攻击利用

    Redis配置及攻击利用 Redis及其安全配置 Redis介绍 redis默认会绑定在 0.0.0.0:6379,如果没有进行采用相关的策略,比如添加防火墙规则避免其他非信任来源 ip 访问等,这样 ...

  2. 使用Squid部署代理缓存服务(标准正向、透明正反向代理)

    正向代理让用户可以通过Squid服务程序获取网站页面等数据,具体工作形式又分为标准代理模式与透明代理模式.标准正向代理模式: 将网站的数据缓存在服务器本地,提高数据资源被再次访问时的效率,但用户必需在 ...

  3. ad room 拷贝

    当一个电路图中有多个相同组件的时候,我哦们一般使用 room格式拷贝. 基本思路 1.方法一  电路图使用repeat 多通道设计 2.简易的赋值粘贴,事实证明简单有效. 3.在pcb中删除对应一个单 ...

  4. NOIP 模拟 $32\; \rm Smooth$

    题解 \(by\;zj\varphi\) 很简单的贪心题. 开 \(B\) 个队列,每个队列存最后一次乘上的数为当前队列编号的数. 每次去所有队列中队首的最小值,不用开堆,因为开堆用于将所有数排序,但 ...

  5. 题解 big

    传送门 题面里那个式子 考场上我推了半天那个式子代表什么意思,但就是没想到位运算 \(\lfloor \frac{2x}{2x^n} \rfloor \iff x\gg(n-1)\), 即将x的第n位 ...

  6. Centos7上yum安装redis

    下载tar包 wget http://download.redis.io/releases/redis-6.0.5.tar.gz 解压tar包 tar -zxvf redis-6.0.5.tar.gz ...

  7. 十一:JavaWeb中的监听器(二)

    一.监听域对象中属性的变更的监听器 域对象中属性的变更的事件监听器就是用来监听 ServletContext, HttpSession, HttpServletRequest 这三个对象中的属性变更信 ...

  8. hive简单数据分析

    简单查询分析 select brand_id from user_log limit 10; -- 查看日志前10数据 好像也没啥,和SQL相同,,limit取前多少条  , as取别名 查询条数统计 ...

  9. Redis脑图

    转自:http://alphawang.com/blog/redis-mind-map/ 最近梳理了下 Redis 知识图谱,画了个脑图,涵盖了 Redis 数据类型.持久化机制.主从.哨兵.集群.应 ...

  10. [转]VRRP协议详解

    原文地址:VRRP协议详解 文中涉及缩略语 缩略语 英文全名 中文解释 VRRP Virtual Router Redundancy Protocol 虚拟路由器冗余协议 NQA Network Qu ...