第三百二十三节,web爬虫,scrapy模块以及相关依赖模块安装
第三百二十三节,web爬虫,scrapy模块以及相关依赖模块安装
当前环境python3.5 ,windows10系统
Linux系统安装
在线安装,会自动安装scrapy模块以及相关依赖模块
pip install Scrapy
手动源码安装,比较麻烦要自己手动安装scrapy模块以及依赖模块
安装以下模块
1、lxml-3.8.0.tar.gz (XML处理库)
2、Twisted-17.5.0.tar.bz2 (用Python编写的异步网络框架)
3、Scrapy-1.4.0.tar.gz (高级web爬行和web抓取框架)
4、pyOpenSSL-17.2.0.tar.gz (OpenSSL库)
5、queuelib-1.4.2.tar.gz (Queuelib是用于Python的持久(基于磁盘的)队列的集合)
6、w3lib-1.17.0.tar.gz (与web相关的函数的Python库)
7、cryptography-2.0.tar.gz (密码学是一种包)
8、pyasn1-0.2.3.tar.gz (ASN类型和编解码器)
9、pyasn1-modules-0.0.9.tar.gz (ASN的集合。基于协议模块)
10、cffi-1.10.0.tar.gz (用于Python调用C代码的外部函数接口)
11、asn1crypto-0.22.0.tar.gz (快速的ASN一个解析器和序列化器)
12、idna-2.5.tar.gz (应用程序中的国际化域名(IDNA))
13、pycparser-2.18.tar.gz (C解析器在Python中)
windows系统安装
windows安装,首先要安装pywin32,根据自己的系统来安装32位还是64位
pywin32-221.win32-py3.5.exe
pywin32-221.win-amd64-py3.5.exe
在线安装
pip install Scrapy
手动源码安装,比较麻烦要自己手动安装scrapy模块以及依赖模块
安装以下模块
1、lxml-3.8.0.tar.gz (XML处理库)
2、Twisted-17.5.0.tar.bz2 (用Python编写的异步网络框架)
3、Scrapy-1.4.0.tar.gz (高级web爬行和web抓取框架)
4、pyOpenSSL-17.2.0.tar.gz (OpenSSL库)
5、queuelib-1.4.2.tar.gz (Queuelib是用于Python的持久(基于磁盘的)队列的集合)
6、w3lib-1.17.0.tar.gz (与web相关的函数的Python库)
7、cryptography-2.0.tar.gz (密码学是一种包)
8、pyasn1-0.2.3.tar.gz (ASN类型和编解码器)
9、pyasn1-modules-0.0.9.tar.gz (ASN的集合。基于协议模块)
10、cffi-1.10.0.tar.gz (用于Python调用C代码的外部函数接口)
11、asn1crypto-0.22.0.tar.gz (快速的ASN一个解析器和序列化器)
12、idna-2.5.tar.gz (应用程序中的国际化域名(IDNA))
13、pycparser-2.18.tar.gz (C解析器在Python中)
测试是否安装成功
在cmd终端,运行python
然后运行:import scrapy ,没有提示错误说明安装成功

第三百二十三节,web爬虫,scrapy模块以及相关依赖模块安装的更多相关文章
- 第三百二十二节,web爬虫,requests请求
第三百二十二节,web爬虫,requests请求 requests请求,就是用yhthon的requests模块模拟浏览器请求,返回html源码 模拟浏览器请求有两种,一种是不需要用户登录或者验证的请 ...
- 第三百二十九节,web爬虫讲解2—urllib库爬虫—ip代理—用户代理和ip代理结合应用
第三百二十九节,web爬虫讲解2—urllib库爬虫—ip代理 使用IP代理 ProxyHandler()格式化IP,第一个参数,请求目标可能是http或者https,对应设置build_opener ...
- 第三百二十八节,web爬虫讲解2—urllib库爬虫—状态吗—异常处理—浏览器伪装技术、设置用户代理
第三百二十八节,web爬虫讲解2—urllib库爬虫—状态吗—异常处理—浏览器伪装技术.设置用户代理 如果爬虫没有异常处理,那么爬行中一旦出现错误,程序将崩溃停止工作,有异常处理即使出现错误也能继续执 ...
- 第三百二十六节,web爬虫,scrapy模块,解决重复ur——自动递归url
第三百二十六节,web爬虫,scrapy模块,解决重复url——自动递归url 一般抓取过的url不重复抓取,那么就需要记录url,判断当前URL如果在记录里说明已经抓取过了,如果不存在说明没抓取过 ...
- 第三百二十五节,web爬虫,scrapy模块标签选择器下载图片,以及正则匹配标签
第三百二十五节,web爬虫,scrapy模块标签选择器下载图片,以及正则匹配标签 标签选择器对象 HtmlXPathSelector()创建标签选择器对象,参数接收response回调的html对象需 ...
- 第三百二十四节,web爬虫,scrapy模块介绍与使用
第三百二十四节,web爬虫,scrapy模块介绍与使用 Scrapy是一个为了爬取网站数据,提取结构性数据而编写的应用框架. 其可以应用在数据挖掘,信息处理或存储历史数据等一系列的程序中.其最初是为了 ...
- 第三百六十三节,Python分布式爬虫打造搜索引擎Scrapy精讲—elasticsearch(搜索引擎)的mget和bulk批量操作
第三百六十三节,Python分布式爬虫打造搜索引擎Scrapy精讲—elasticsearch(搜索引擎)的mget和bulk批量操作 注意:前面讲到的各种操作都是一次http请求操作一条数据,如果想 ...
- 第三百五十三节,Python分布式爬虫打造搜索引擎Scrapy精讲—scrapy的暂停与重启
第三百五十三节,Python分布式爬虫打造搜索引擎Scrapy精讲—scrapy的暂停与重启 scrapy的每一个爬虫,暂停时可以记录暂停状态以及爬取了哪些url,重启时可以从暂停状态开始爬取过的UR ...
- 第三百八十三节,Django+Xadmin打造上线标准的在线教育平台—第三方模块django-simple-captcha验证码
第三百八十三节,Django+Xadmin打造上线标准的在线教育平台—第三方模块django-simple-captcha验证码 下载地址:https://github.com/mbi/django- ...
随机推荐
- my stackoverflow
https://stackoverflow.com/questions/48017641/how-to-monitor-elastic-stack-without-x-pack https://sta ...
- 深入理解Java中的逃逸分析
在Java的编译体系中,一个Java的源代码文件变成计算机可执行的机器指令的过程中,需要经过两段编译,第一段是把.java文件转换成.class文件.第二段编译是把.class转换成机器指令的过程. ...
- vim学习日志(8):linux查看和修改文件编码
查看文件的编码 方法一: 1.在Vim中可以直接查看文件编码:set fileencoding即可显示文件编码格式.注:如果你只是想查看其它编码格式的文件或者想解决用Vim查看文件乱码的问题,那么你可 ...
- iOS开发如何学习前端(1)
iOS开发如何学习前端(1) 我为何学前端?因为无聊. 概念 前端大概三大块. HTML CSS JavaScript 基本上每个概念在iOS中都有对应的.HTML请想象成只能拉Autolayout或 ...
- 【delphi】delphi操作sqlite3
SQLite SQLite是一个老牌的轻量级别的本地文件数据库,完全免费且开源,不需要安装,无须任何配置,当然,这样管理功能就不是很强大了,但是它的主要应用也是在本地数据库,可以说是最简单好用的嵌入式 ...
- js实现默认或者触发一个事件选中元素内容的方法
方法一:非文本框.文本域的选中内容方法 <!Doctype html> <html> <head> <script type="text/javas ...
- LeetCode: Longest Common Prefix 解题报告
Longest Common Prefix Write a function to find the longest common prefix string amongst an array of ...
- 无刷新文件上传 利用iframe实现
效果如图: 示例是基于asp.net mvc实现的 html代码: <form id="form2" name="form2" class="f ...
- PHP 图片处理类 错误处理方法:
call an undefined function exif_imagetype() 打开扩展php.ini 将 ; 去掉: extension=php_exif.dll 并将extension=p ...
- 网站遭受CC攻击的解决办法
前两天,网站的注册发送手机短信验证码的接口受到攻击,一个半小时,1万条短信都发出去了.可见,我们的安全防护做的多么不好. 分析攻击方式: 1) 多台机器模拟人工操作,随机输入手机号,就点击发送短信: ...