downloadermiddlewares  文件夹是下载中间件

其中  process_request   还没请求时的处理函数

process_response  请求之后的处理函数

chunked.py    简单说就是传输网页数据非常大的 或者 数据长度不确定用到   参考 http://blog.csdn.net/whatday/article/details/7571451

decompression.py   读取压缩文件   然后解压文件  替换  response    76行   response.replace(body=body, cls=respcls)

defaultheaders.py     获取默认的头部   settings['DEFAULT_REQUEST_HEADERS']

downloadtimeout.py   获取默认超时时间

httpauth.py   这个用户认证  是http认证  可以nginx 上配置的

httpcache.py   网页cache     首先判断  _dont_cache  是否为Ture    读取缓存  是否存在 是否过期   过期看这个   HTTPCACHE_EXPIRATION_SECS     一切正常就直接返回缓存  标识该request  已经缓存

特别有意思的是抓取出现异常 会调用缓存 哈哈

httpproxy.py   这个代码我就不说  但实际工作中  不用他的  我们会另外写一个代理池系统    存储 redis  然后再写一个中间件读取 代理ip    或者代理ip 存  squid  中间件也省了

redirect.py   该文件有两个中间件  RedirectMiddleware     服务器重定向中间件    判断 dont_redirect  是否为True   然后读取 response.headers['location']   跳转过去

MetaRefreshMiddleware  网页重定向中间件    用正则 提取出  网页重定向的url  然后跳转

retry.py    重试中间件     判断 如果 http status 是否在 retry_http_codes     request.meta.get('retry_times', 0)   是否超过  max_retry_times     然后 return request

特别有意思的是  发生异常 也会启用 重试中间件 这个非常实用!!!!!  超级赞

useragent.py   更新 User-Agent

stats.py   统计中间件  有一个统计异常很重要   30行  ex_class = "%s.%s" % (exception.__class__.__module__, exception.__class__.__name__)

32 行  self.stats.inc_value('downloader/exception_type_count/%s' % ex_class, spider=spider)

robotstxt.py   判断  robotstxt

ken桑带你读源码之scrapy downloadermiddlewares的更多相关文章

  1. ken桑带你读源码 之scrapy

    开篇声明 文章讲解源码不一定从入口开始   主题更注重 思路讲解以及核心函数   ok?  废话到此为止 /scrapy/downloadermiddlewares/  文件夹下是下载器的 中间件  ...

  2. ken桑带你读源码 之scrapy scrapy\core\scheduler.py

    从英文来看是调度程序  我们看看是怎么调度 首先爬虫队列有两个 一个是保存在内存中  没有历史记录   重新开始  42行  self.mqs = self.pqclass(self._newmq) ...

  3. ken桑带你读源码 之scrapy scrapy\extensions

    logstats.py 爬虫启动时 打印抓取网页数   item数 memdebug.py 爬虫结束 统计还被引用的内存 也就是说gc 回收不了的内存   memusage.py 监控爬虫 内存占用  ...

  4. ken桑带你读源码 之scrapy pipelines\images.py

    大家先看看 http://www.cnblogs.com/attitudeY/p/7078559.html 下面我做一些补充   最新版本1.1 已经支持 下载路径保存到  item   48行    ...

  5. ken桑带你读源码 之 scrapy_redis

    首先更大家说下  正式部署上线的爬虫会有分布式爬虫的需求  而且原本scrapy 的seen (判断重复url的池  不知道用啥词  已抓url吧 )  保存在磁盘 url 队列 也是保存在磁盘 (保 ...

  6. Android AsyncTask完全解析,带你从源码的角度彻底理解

    转载请注明出处:http://blog.csdn.net/guolin_blog/article/details/11711405 我们都知道,Android UI是线程不安全的,如果想要在子线程里进 ...

  7. [一起读源码]走进C#并发队列ConcurrentQueue的内部世界

    决定从这篇文章开始,开一个读源码系列,不限制平台语言或工具,任何自己感兴趣的都会写.前几天碰到一个小问题又读了一遍ConcurrentQueue的源码,那就拿C#中比较常用的并发队列Concurren ...

  8. Java读源码之ReentrantLock

    前言 ReentrantLock 可重入锁,应该是除了 synchronized 关键字外用的最多的线程同步手段了,虽然JVM维护者疯狂优化 synchronized 使其已经拥有了很好的性能.但 R ...

  9. 带货直播源码开发采用MySQL有什么优越性

    MySQL是世界上最流行的开源关系数据库,带货直播源码使用MySQL,可实现分钟级别的数据库部署和弹性扩展,不仅经济实惠,而且稳定可靠,易于运维.云数据库 MySQL 提供备份恢复.监控.容灾.快速扩 ...

随机推荐

  1. Hive 报错SemanticException Error in parsing

    以下sql执行时报错SemanticException Error in parsing select clr.id,clr.customer_id,clr,contract_code,clr.cor ...

  2. SpringCloud之zuul

  3. python实现的udp-收发聊天器

    构建思想:创建三个函数,最后一个函数调用前两个 1.创建发送函数-send() 2.创建接收函数-recv() 3.创建调用函数(主函数)-main() import socket def send( ...

  4. 听说你还不知道CompletableFuture?

    java8已经在日常开发编码中非常普遍了,掌握运用好它可以在开发中运用几行精简代码就可以完成所需功能.今天将介绍CompletableFuture的在生产环境如何使用实践.CompletableFut ...

  5. CentOS 7 Docker安装部署Go Web

    Docker 是一种容器技术,它部署简单,能很好的进行服务隔离,生成镜像,Push到镜像仓库,其他机器一键拉取部署. Docker分为社区版CE和企业版EE,社区版是免费提供给个人和小型团队使用,企业 ...

  6. android手机的微信H5弹出的软键盘挡住了文本框,如何解决?

    window.addEventListener("resize", function () { if (document.activeElement.tagName == &quo ...

  7. Django setting设置 常用设置

    目录 Django配置文件基本设置 前言 setting配置汇总 一.APP路径 二.数据库配置 三.sql语句展示 四.静态文件目录 五.media文件配置 六.数据库中的UserInfo(用户表) ...

  8. (一)pandas的两种对象

    将鱼图像数据进行操作,使用numpy知识 import numpy as np import matplotlib.pyplot as plt %matplotlib inline #咱们可以不用sh ...

  9. 一篇夯实一个知识点系列--python生成

    写在前面 本系列目的:一篇文章,不求鞭辟入里,但使得心应手. 迭代是数据处理的基石,在扫描内存无法装载的数据集时,我们需要一种惰性获取数据的能力(即一次获取一部分数据到内存).在Python中,具有这 ...

  10. 临时解决GitHub的raw.githubusercontent.com无法连接问题

    http://qjzd.net:3000/topic/5e48cc33dcf06d6a181ffb81 查询真实IP 通过IPAddress.com首页,输入raw.githubusercontent ...