scrapy中间件之下载中间件使用(网易新闻爬取)
scrapy项目中的middlewarse.py中间件
爬虫中间件:目前先不介绍
下载中间件(需要在settings.py中开启)
(1)请求处理函数:process_request(self, request, spider)
可以针对url请求指定UA伪装、配置代理等功能(UA伪装可以在settings.py中进行全局配置,代理配置更倾向于在异常处理函数,大部分异常都是因为ip的问题)
def process_request(self, request, spider):
#UA伪装
# request.headers['User-Agent']=random.choice(UA_list) #ip代理配置(一般更多的放在process_exception异常处理函数中)
# request.meta['proxy']='http[s]://ip:port'
return None
process_request
(2)响应处理函数:process_response(self, request, response, spider)
对于一些网页请求,立即相应的数据可能不完全,页面部分内容是通过触发滚轮或者下拉操作才会动态加载的数据,因此获取的到数据并不是完整的,需要对响应对象进行篡改(比如通过selenium模拟浏览器操作获取到完整数据)后返回。
(3)异常处理函数:process_exception(self, request, exception, spider)
对于请求异常处理,一般可以更换ip设置代理操作
def process_exception(self, request, exception, spider):
#对请求异常进行修正
#更换代理(一定要 return request将请求返回以便再次发起)
# request.meta['proxy']='http[s]://ip:port'
# return request
pass
process_exception
网易新闻爬取案例:
分析页面可以获知不同板块内容都是页面下拉动态加载的:国内、国际、军事、航空、无人机这几个板块内容都是标题都是在div中的一个a标签中,因此统一来进行爬取解析!
1.新建爬虫项目
scrapy startproject firstPro
cd firstPro
scrapy genspider middlewareTest www.xxx.com
2.编写爬虫文件middlewareTest.py
# -*- coding: utf-8 -*-
import scrapy
from firstPro.items import FirstproItem
from selenium import webdriver class MiddlewaretestSpider(scrapy.Spider):
name = 'middlewareTest'
# allowed_domains = ['www.xxx.com']
start_urls = ['https://news.163.com/']
plate_urls=[]#存放板块的url,以便在下载中间件次改请求获取完整标题数据
def __init__(self):
self.bro=webdriver.Chrome(executable_path=r'E:\Python项目\爬虫\day110_20190809(全站爬取、分布式爬虫)\firstPro\firstPro\spiders\chromedriver.exe')#初始化浏览器实例
def parse(self, response):
#解析首页标题板块
li_list=response.xpath('//div[@class="ns_area list"]/ul/li')
print(len(li_list))
#确定爬取的板块
index_list=[4,5,7,8,9]
for index in index_list:
item=FirstproItem()
plate=li_list[index-1].xpath('./a/text()').extract_first()
url=li_list[index-1].xpath('./a/@href').extract_first()
self.plate_urls.append(url)
item['plate']=plate
# 对每个板块进行发起请求,获取标题信息
yield scrapy.Request(url,callback=self.parse_title,meta={"item":item})
break
#对每个板块的新闻标题进行解析,但是新闻标题都是动态加载的,因此直接的响应对象不完整,需要通过下载中间件对新闻板块标题获取进行处理
#解决思路:为获取板块完整标题内容,需要模拟浏览器下拉操作,结合使用selenuim在下载中间件进行操作
def parse_title(self, response):
item=response.meta['item']
#解析每个板块中的新闻标题
div_list=response.xpath('//div[@class="ndi_main"]/div')
for div in div_list:
title=div.xpath('./div/div[1]/h3/a/text()').extract_first()
url=div.xpath('./div/div[1]/h3/a/@href').extract_first()
item["title"]=title
#对每个标题详情发起请求
yield scrapy.Request(url,callback=self.parse_detail,meta={"item":item}) def parse_detail(self,response):
item = response.meta['item']
#解析每个标题对应的详细新闻内容
content="".join(response.xpath('//*[@id="endText"]//text()').extract())
item["content"]=content
yield item # 程序全部结束的时候被调用
def closed(self, spider):
print('结束爬虫!!!')
self.bro.quit()
爬虫脚本middlewareTest.py
3.定义items.py字段属性
import scrapy class FirstproItem(scrapy.Item):
# define the fields for your item here like:
# name = scrapy.Field()
#新闻板块
plate=scrapy.Field()
#新闻标题
title=scrapy.Field()
#新闻详情
content=scrapy.Field()
pass
items.py
4.管道pipelines.py持久化
import redis
class FirstproPipeline(object):
#持久化存储在redis数据库中
conn=None
# def open_spider(self,spider):
# self.conn=redis.Redis(host="127.0.0.1",port=6379) def process_item(self, item, spider):
# self.conn.lpush('wangyi',dict(item))
print(item)
return item
pipelines.py
5.settings.py配置
#UA伪装
USER_AGENT = "Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/63.0.3239.132 Safari/537.36" #robots协议
ROBOTSTXT_OBEY = False #输出日志等级
LOG_LEVEL="ERROR" #打开下载中间件
DOWNLOADER_MIDDLEWARES = {
'firstPro.middlewares.FirstproDownloaderMiddleware': 543,
} #打开管道
ITEM_PIPELINES = {
'firstPro.pipelines.FirstproPipeline': 300,
}
scrapy中间件之下载中间件使用(网易新闻爬取)的更多相关文章
- python爬虫---scrapy框架爬取图片,scrapy手动发送请求,发送post请求,提升爬取效率,请求传参(meta),五大核心组件,中间件
# settings 配置 UA USER_AGENT = 'Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/537.36 (KHTML, l ...
- scrapy架构与目录介绍、scrapy解析数据、配置相关、全站爬取cnblogs数据、存储数据、爬虫中间件、加代理、加header、集成selenium
今日内容概要 scrapy架构和目录介绍 scrapy解析数据 setting中相关配置 全站爬取cnblgos文章 存储数据 爬虫中间件和下载中间件 加代理,加header,集成selenium 内 ...
- Python 网络爬虫 006 (编程) 解决下载(或叫:爬取)到的网页乱码问题
解决下载(或叫:爬取)到的网页乱码问题 使用的系统:Windows 10 64位 Python 语言版本:Python 2.7.10 V 使用的编程 Python 的集成开发环境:PyCharm 20 ...
- Python 网络爬虫 005 (编程) 如何编写一个可以 下载(或叫:爬取)一个网页 的网络爬虫
如何编写一个可以 下载(或叫:爬取)一个网页 的网络爬虫 使用的系统:Windows 10 64位 Python 语言版本:Python 2.7.10 V 使用的编程 Python 的集成开发环境:P ...
- python 全栈开发,Day138(scrapy框架的下载中间件,settings配置)
昨日内容拾遗 打开昨天写的DianShang项目,查看items.py class AmazonItem(scrapy.Item): name = scrapy.Field() # 商品名 price ...
- scrapy框架4——下载中间件的使用
一.下载中间件 下载中间件是scrapy提供用于用于在爬虫过程中可修改Request和Response,用于扩展scrapy的功能:比如: 可以在请求被Download之前,请求头部加上某些信息(例如 ...
- scrapy框架之下载中间件
介绍 中间件是Scrapy里面的一个核心概念.使用中间件可以在爬虫的请求发起之前或者请求返回之后对数据进行定制化修改,从而开发出适应不同情况的爬虫. “中间件”这个中文名字和前面章节讲到的“中间人”只 ...
- Scrapy教程——搭建环境、创建项目、爬取内容、保存文件
1.创建项目 在开始爬取之前,您必须创建一个新的Scrapy项目.进入您打算存储代码的目录中,运行新建命令. 例如,我需要在D:\00Coding\Python\scrapy目录下存放该项目,打开命令 ...
- Scrapy分布式爬虫打造搜索引擎- (二)伯乐在线爬取所有文章
二.伯乐在线爬取所有文章 1. 初始化文件目录 基础环境 python 3.6.5 JetBrains PyCharm 2018.1 mysql+navicat 为了便于日后的部署:我们开发使用了虚拟 ...
随机推荐
- css3--弹性布局
来源:https://www.cnblogs.com/xuyuntao/articles/6391728.html
- 吕建文 20199303《Linux内核原理与分析》第十二周作业
ShellShock攻击实验 2014年9月24日,Bash中发现了一个严重漏洞shellshock,该漏洞可用于许多系统,并且既可以远程也可以在本地触发.在本实验中,学生需要亲手重现攻击来理解该漏洞 ...
- JVM原理以及深度调优(二)
JVM内存分配 内存分配其实真正来讲是有三种的.但对于JVM来说只有两种 栈内存分配: 大家在调优的过程中会发现有个参数是-Xss 默认是1m,这个内存是栈内存分配, 在工作中会发现栈OutOfMem ...
- Asp.Net Core 3.1学习-依赖注入、服务生命周期(6)
1.前言 面向对象设计(OOD)里有一个重要的思想就是依赖倒置原则(DIP),并由该原则牵引出依赖注入(DI).控制反转(IOC)及其容器等概念.在学习Core依赖注入.服务生命周期之前,下面让我们先 ...
- 动画图解Git命令
Git是一个开源的分布式版本控制系统,可以有效.高速的处理从很小到非常大的项目版本管理,是目前使用范围最广的版本管理工具 尽管Git是一个非常强大的工具,但我认为大多数人都会同意我的说法,即它也可以 ...
- Java中的小数运算与精度损失
float.double类型的问题 我们都知道,计算机是使用二进制存储数据的.而平常生活中,大多数情况下我们都是使用的十进制,因此计算机显示给我们看的内容大多数也是十进制的,这就使得很多时候数据需要在 ...
- [每日短篇] 1C - Spring Data JPA (0)
2019独角兽企业重金招聘Python工程师标准>>> 准备把 Spring Data JPA 完整看一遍,顺便把关键要点记录一下.在写这篇文章的今天,再不用 Spring Boot ...
- 手把手教你用Rancher创建产品质量数据库设置
目标:在本文中,我们将介绍如何运行一个分布式产品质量数据库设置,它由Rancher进行管理,并且保证持久性.为了部署有状态的分布式Cassandra数据库,我们将使用Stateful Sets (有状 ...
- nodeJS生成xlsx以及设置样式
参考: https://www.npmjs.com/package/xlsx-style https://www.jianshu.com/p/877631e7e411 https://sheetjs. ...
- 数学--数论--欧拉降幂--P5091 欧拉定理
题目背景 出题人也想写有趣的题面,可惜并没有能力. 题目描述 给你三个正整数,a,m,ba,m,ba,m,b,你需要求:ab mod ma^b \bmod mabmodm 输入格式 一行三个整数,a, ...