Scrapy见面第五天
这算是我第一次使用框架吧,说来羞愧。
此前用Request带上cookie实现、(略微)完好了QQ空间的爬虫(传送门),接下来想实现分布式去爬。
事实上仅仅要能实现待爬QQ队列的共享,分布式的主要问题也就攻克了。可是认为这样实现的爬虫项目有点“不正规”,所以想用Scrapy框架和Redis数据库来整顿现有爬虫。
无奈公司里也没什么人指点。全凭一人摸爬滚打,过程有点痛苦。但自信仅仅要敢啃。还是能够拿下的。不成问题。
然后就动手了。
(忽略安装过程,预计是曾经用其它模块的时候已经吐血吐够了,环境都配好了,居然直接用 pip install scrapy 就成功了)
第一步、当然是百度。看看传说中的“正规军”是什么样子的。高速了解了一下Scrapy工作机制,以及大家在使用scrapy的时候关注的点很多其它在哪里。然而看的都是似懂非懂,。然而并不重要,我仅仅须要和它碰个面即可。
第二步、搜GitHub。找代码。搜了十几个demo,高速看了一下scrapy的代码结构。
第三步、从各种平台搜索和Scrapy有关的东西。特别是大家对它的看法。主要途径:新浪微博、知乎、推酷、Google。第四步、调试、执行从GitHub上download下来的demo,大约了解scrapy详细的执行机制。
第五步、是时候静下心来啃Scrapy的官方文档了,受益良多。第六步、糗事百科作靶子,模仿demo实战练习。再功能延生。
第七步、即现在。第五天。
事实上遇到的问题还是挺多的,基本的原因是对Scrapy了解不够深入。
想要入门Scrapyeasy,可是想要单枪匹马高速入门,就非常须要看重怎么走了。
我是想着先实现简单的Scrapy爬虫。再用Redis实现分布式。在此之后再进行功能拓展,比如Cookie登录,比如爬虫数据的添加,比如异常处理、性能优化等等。整体的思路是先纵向深入,再横向逐个拓展。
计划虽是这样,但终归还是没忍住花了一天时间动手实现了一下QQ空间和新浪微博的Scrapy爬虫。自增苦恼。只是有所收获。
首先是QQ空间。我之前是用Request的session带上Cookie去打开js的请求,返回来的是js文件,里面包括我所须要的信息。
直接请求js文件的优点是数据量小。数据流通和数据处理的花销会小非常多(反正我的小本本一个小时能抓17万条说说)。
而现在。我用Scrapy带上Cookie却返回403(已带表头),我试着打开空间主页的URL。返回的是HTML文件,这非常正常,没有JS文件。但为什么打开JS的请求却报错403了呢?这个问题暂先放着。事实上空间更蛋疼的问题还没解决呢——Cookie。普通的登录(比如知乎)是发送个表单即可了,但QQ空间的表单。年轻的我没有找到(预计要一点点调试看它的加密算法了,之前的爬虫我是用phantomjs模拟浏览器获取到的)。百度和Google也没有搜到结果。甚至爬QQ空间人就非常少。大伙对它没兴趣?
QQ空间爬不成,我试一下微博。
非常明显大伙对微博的兴趣就高非常多了,已经有加密算法和构造表单的方法了。并且我在查看Cookie的时候看到新浪的Cookie有效期是六天左右(未检验)(QQ空间的Cookie有效期在几十分钟到十几个钟不等)。假设是这种话我们就算手动输入Cookie那也没什么呀。
只是微博另一个问题。JS载入。
网上的说法是构造下载中间件。详细还有待解决。
只是此时看到scrapy的那张架构图(例如以下)就第二种感觉了呀。最终对各个部分有一点认识了!只是假设用Redis实现分布式的话Pipeline和Scheduler之间是不是应该要有个数据流通呀?
感觉当前的难点很多其它的还是在右半边。获取数据。
接下来。构造中间件。
继续勘探。尽快熟悉Scrapy与分布式!
转载请注明出处,谢谢!
(原文链接:http://blog.csdn.net/bone_ace/article/details/50811004)
Scrapy见面第五天的更多相关文章
- Learning Scrapy笔记(五)- Scrapy登录网站
摘要:介绍了使用Scrapy登录简单网站的流程,不涉及验证码破解 简单登录 很多时候,你都会发现你需要爬取数据的网站都有一个登录机制,大多数情况下,都要求你输入正确的用户名和密码.现在就模拟这种情况, ...
- python3下scrapy爬虫(第五卷:初步抓取网页内容之scrapy全面应用)
现在爬取http://category.dangdang.com/pg1-cid4008149.html网址上的商品价格,名称,评价数量 先准备下下数据:商品名,商品链接,评价数量 第一步:在item ...
- Scrapy 5+1 ——五大坑附送一个小技巧
笔者最近对scrapy的学习可谓如火如荼,虽然但是,即使是一整天地学习下来也会有中间两三个小时的"无效学习",不是笔者开小差,而是掉进了深坑出不来. 在此,给各位分享一下作为一名S ...
- Learning Scrapy笔记(六)- Scrapy处理JSON API和AJAX页面
摘要:介绍了使用Scrapy处理JSON API和AJAX页面的方法 有时候,你会发现你要爬取的页面并不存在HTML源码,譬如,在浏览器打开http://localhost:9312/static/, ...
- scrapy 日志处理
Scrapy生成的调试信息非常有用,但是通常太啰嗦,你可以在Scrapy项目中的setting.py中设置日志显示等级: LOG_LEVEL = 'ERROR' 日志级别 Scrapy日志有五种等级, ...
- 使用Scrapy自带的ImagesPipeline下载图片,并对其进行分类。
ImagesPipeline是scrapy自带的类,用来处理图片(爬取时将图片下载到本地)用的. 优势: 将下载图片转换成通用的JPG和RGB格式 避免重复下载 缩略图生成 图片大小过滤 异步下载 . ...
- Spider_Man_6 の Scrapy(未完待续)
一:自我介绍 Scrapy是一个为了爬取网站数据,提取结构性数据而编写的应用框架. 可以应用在包括数据挖掘,信息处理或存储历史数据等一系列的程序中.其最初是为了页面抓取 (更确切来说, 网络抓取 )所 ...
- Scrapy 组件的具体用法
一.Spider 用法 在 Scrapy 中,要抓取网站的链接配置.抓取逻辑.解析逻辑都是在 Spider 里完成的.Spider 的一些基础属性和基础方法: name:爬虫名字,Spider的名字定 ...
- Spider-scrapy日志处理
Scrapy生成的调试信息非常有用,但是通常太啰嗦,你可以在Scrapy项目中的setting.py中设置日志显示等级: LOG_LEVEL = 'ERROR' 日志级别 Scrapy日志有五种等级, ...
随机推荐
- 反激 (Flyback) 控制器 -- LTC3803
LTC3803 - 采用 ThinSOT 封装的恒定频率.电流模式.反激式 DC/DC 控制器 特点 VIN 和 VOUT 仅受限于外部元件 可调斜率补偿 内部软起动 200kHz 恒定频率操作 ±1 ...
- Valera and Fruits
B. Valera and Fruits time limit per test 1 second memory limit per test 256 megabytes input standard ...
- UIView独占响应事件
exclusiveTouch A Boolean value that indicates whether the receiver handles touch events exclusively. ...
- Android RadioButton设置选中时文字和背景颜色同时改变
主要应用在购物车,像淘宝的那样,点击以后弹出一个选择种类颜色这样的popuwindow以后,然后这个选择种类的地方要用到类似这个玩意儿. 搜了一下,效果和这个文章一致.转了. 原文地址:http:// ...
- Eclipse中安装Maven插件 M2eclipse
下面是官网的说明,基本上的意思下面有图片说明. To install m2eclipse, use the following Eclipse update site to install the c ...
- HDFS命令行工具
1. hadoop fs 帮助信息 hadoop fs 使用help选项可以获得某个具体命令的详细说明: hadoop fs -help ls 2. 列出HDFS文件和目录 hadoop fs -ls ...
- 挑战黑客极限:Pwn2Own 2015成史上“最难”黑客大赛
Pwn2Own是全球最著名.奖金最丰厚的黑客大赛,由美国五角大楼入侵防护系统供应商TippingPoint赞助.近日Pwn2Own 2015公布全新的比赛规则,本届赛事难度超高.史无前例,包括VUPE ...
- .aspx(或.asp)文件与.html(.htm)文件的区别与联系
由于都是用于描述网页文档的文件,自学asp.net起就对两者之间的关系很好奇 主要的区别在于,当用户请求页面时,它们在服务器的端的处理不同 下图解释客户端请求页面时,服务器端的处理流程: .html文 ...
- Unity3D新手教学,让你十二小时,从入门到掌握!(三 ) [转]
版权声明:本文为Aries原创文章,转载请标明出处.如有不足之处欢迎提出意见或建议,联系QQ531193915 这一讲,我会教大家如何写碰撞检测的代码,然后还会教大家如何使用我介绍给大家的第一个Uni ...
- java怎么删除List中的指定元素
ArrayList al = new ArrayList(); al.add("a"); al.add("b"); //al.add("b" ...