windows 下 scrapy的安装
安装参考博客:http://davenzhang.com/scrapy_install.htm
我是先安装了scrapy,发现import scrapy 的时候报错。之后一次安装了下面关联软件的.exe文件。之后就可以导入了。
- Twisted: twisted-Download
- zope.interface: zope.interface-Download
- lxml: lxml-Download
- pyOpenSSL: pyopenssl-Download
这时候 import scrapy 的时候很正常,但是用scrapy startproject demo 的时候报错了,看version 也报错
D:\Just4Study\Python\TestProgram>C:\Python27\Scripts\scrapy version
Traceback (most recent call last):
File "C:\Python27\lib\runpy.py", line 162, in _run_module_as_main
"__main__", fname, loader, pkg_name)
File "C:\Python27\lib\runpy.py", line 72, in _run_code
exec code in run_globals
File "C:\Python27\lib\site-packages\scrapy\cmdline.py", line 5, in <module>
import pkg_resources
ImportError: No module named pkg_resources
顺着错误找到解释说是没有安装setuptools或者没有装好。搜寻到安装方法:
先下载:
wget http://peak.telecommunity.com/dist/ez_setup.py
再安装
python ez_setup.py
D:\Just4Study\Python\TestProgram>python ez_setup.py
Downloading http://pypi.python.org/packages/2.7/s/setuptools/setuptools-0.6c11-py2.7.egg
Processing setuptools-0.6c11-py2.7.egg
Copying setuptools-0.6c11-py2.7.egg to c:\python27\lib\site-packages
Adding setuptools 0.6c11 to easy-install.pth file
Installing easy_install-script.py script to C:\Python27\Scripts
Installing easy_install.exe script to C:\Python27\Scripts
Installing easy_install.exe.manifest script to C:\Python27\Scripts
Installing easy_install-2.7-script.py script to C:\Python27\Scripts
Installing easy_install-2.7.exe script to C:\Python27\Scripts
Installing easy_install-2.7.exe.manifest script to C:\Python27\Scripts
Installed c:\python27\lib\site-packages\setuptools-0.6c11-py2.7.egg
Processing dependencies for setuptools==0.6c11
Finished processing dependencies for setuptools==0.6c11
之后运行
D:\Just4Study\Python\TestProgram>C:\Python27\Scripts\scrapy version
Traceback (most recent call last):
File "C:\Python27\lib\runpy.py", line 162, in _run_module_as_main
"__main__", fname, loader, pkg_name)
File "C:\Python27\lib\runpy.py", line 72, in _run_code
exec code in run_globals
File "C:\Python27\lib\site-packages\scrapy\cmdline.py", line 8, in <module>
from scrapy.crawler import CrawlerProcess
File "C:\Python27\lib\site-packages\scrapy\crawler.py", line 5, in <module>
from scrapy.core.engine import ExecutionEngine
File "C:\Python27\lib\site-packages\scrapy\core\engine.py", line 14, in <module>
from scrapy.core.downloader import Downloader
File "C:\Python27\lib\site-packages\scrapy\core\downloader\__init__.py", line 13, in <module>
from .middleware import DownloaderMiddlewareManager
File "C:\Python27\lib\site-packages\scrapy\core\downloader\middleware.py", line 7, in <module>
from scrapy.http import Request, Response
File "C:\Python27\lib\site-packages\scrapy\http\__init__.py", line 8, in <module>
from scrapy.http.headers import Headers
File "C:\Python27\lib\site-packages\scrapy\http\headers.py", line 1, in <module>
from w3lib.http import headers_dict_to_raw
ImportError: No module named w3lib.http
安装w3lib去(https://github.com/scrapy/w3lib)下载,安装
D:\Just4Study\Python\TestProgram>python C:\Python27\w3lib-master\setup.py install
running install
running build
running build_py
error: package directory 'w3lib' does not exist
D:\Just4Study\Python\TestProgram>c:
C:\Python27\Scrapy-0.18.1>cd C:\Python27\w3lib-master
C:\Python27\w3lib-master>python setup.py install
running install
running build
running build_py
creating build
creating build\lib
creating build\lib\w3lib
copying w3lib\encoding.py -> build\lib\w3lib
copying w3lib\form.py -> build\lib\w3lib
copying w3lib\html.py -> build\lib\w3lib
copying w3lib\http.py -> build\lib\w3lib
copying w3lib\url.py -> build\lib\w3lib
copying w3lib\util.py -> build\lib\w3lib
copying w3lib\__init__.py -> build\lib\w3lib
running install_lib
creating C:\Python27\Lib\site-packages\w3lib
copying build\lib\w3lib\encoding.py -> C:\Python27\Lib\site-packages\w3lib
copying build\lib\w3lib\form.py -> C:\Python27\Lib\site-packages\w3lib
copying build\lib\w3lib\html.py -> C:\Python27\Lib\site-packages\w3lib
copying build\lib\w3lib\http.py -> C:\Python27\Lib\site-packages\w3lib
copying build\lib\w3lib\url.py -> C:\Python27\Lib\site-packages\w3lib
copying build\lib\w3lib\util.py -> C:\Python27\Lib\site-packages\w3lib
copying build\lib\w3lib\__init__.py -> C:\Python27\Lib\site-packages\w3lib
byte-compiling C:\Python27\Lib\site-packages\w3lib\encoding.py to encoding.pyc
byte-compiling C:\Python27\Lib\site-packages\w3lib\form.py to form.pyc
byte-compiling C:\Python27\Lib\site-packages\w3lib\html.py to html.pyc
byte-compiling C:\Python27\Lib\site-packages\w3lib\http.py to http.pyc
byte-compiling C:\Python27\Lib\site-packages\w3lib\url.py to url.pyc
byte-compiling C:\Python27\Lib\site-packages\w3lib\util.py to util.pyc
byte-compiling C:\Python27\Lib\site-packages\w3lib\__init__.py to __init__.pyc
running install_egg_info
Writing C:\Python27\Lib\site-packages\w3lib-1.3-py2.7.egg-info
之后运行
C:\Python27\w3lib-master>D:
D:\Just4Study\Python\TestProgram>C:\Python27\Scripts\scrapy version
Scrapy 0.18.1
D:\Just4Study\Python\TestProgram>C:\Python27\Scripts\scrapy startproject demo
D:\Just4Study\Python\TestProgram>dir
驱动器 D 中的卷是 work
卷的序列号是 F4A9-7648
D:\Just4Study\Python\TestProgram 的目录
2013/09/06 11:36 <DIR> .
2013/09/06 11:36 <DIR> ..
2013/02/06 09:58 140 AddressBook.data
2013/02/06 10:12 1,081 AddressBook.py
2013/02/04 17:25 156 backup_ver1.py
2013/09/06 11:36 <DIR> demo
2013/09/06 11:24 10,240 ez_setup.py
2013/08/28 22:07 1,042 getPhoneNumber.py
2009/07/17 14:35 1,719 oracle_export.py
2013/03/11 22:02 269 python_debug.py
2013/08/28 22:19 375 test_urllib2.py
2013/02/03 15:31 182 using_sys.py
9 个文件 15,204 字节
3 个目录 124,353,531,904 可用字节
好吧其他的目录不用管,我们看到了demo目录,再仔细看看。
D:\Just4Study\Python\TestProgram>cd demo
D:\Just4Study\Python\TestProgram\demo>dir
驱动器 D 中的卷是 work
卷的序列号是 F4A9-7648
D:\Just4Study\Python\TestProgram\demo 的目录
2013/09/06 11:36 <DIR> .
2013/09/06 11:36 <DIR> ..
2013/09/06 11:36 <DIR> demo
2013/09/06 11:36 250 scrapy.cfg
1 个文件 250 字节
3 个目录 124,353,531,904 可用字节
D:\Just4Study\Python\TestProgram\demo>cd demo
D:\Just4Study\Python\TestProgram\demo\demo>dir
驱动器 D 中的卷是 work
卷的序列号是 F4A9-7648
D:\Just4Study\Python\TestProgram\demo\demo 的目录
2013/09/06 11:36 <DIR> .
2013/09/06 11:36 <DIR> ..
2013/09/06 11:36 265 items.py
2013/09/06 11:36 258 pipelines.py
2013/09/06 11:36 448 settings.py
2013/09/06 11:02 <DIR> spiders
2013/08/28 05:46 0 __init__.py
4 个文件 971 字节
3 个目录 124,353,531,904 可用字节
这回终于和http://doc.scrapy.org/en/latest/intro/tutorial.html 上描述的一致了。
到这里,我想是安装好了。
windows 下 scrapy的安装的更多相关文章
- windows下scrapy 的安装
2016-07-18 20:27:53 安装python 根据你的需求下载python安装包,安装python(本文基于python27)https://www.python.org/downloa ...
- Windows下的Memcache安装 linux下的Memcache安装
linux下的Memcache安装: 1. 下载 memcache的linux版本,注意 memcached 用 libevent 来作事件驱动,所以要先安装有 libevent. 官方网址:http ...
- Windows下的Memcache安装
Windows下的Memcache安装: 1. 下载memcache的windows稳定版,解压放某个盘下面,比如在c:\memcached2. 在终端(也即cmd命令界面)下输入 'c:\memca ...
- Windows下 VM12虚拟机安装OS X 10.11 和VM TOOLS
Windows下虚拟机安装Mac OS X —– VMware Workstation12安装Mac OS X 10.11 本文即将介绍WIN虚拟MAC的教程.完整详细教程(包含安装中的一些问题) [ ...
- coreseek实战(一):windows下coreseek的安装与测试
coreseek实战(一):windows下coreseek的安装与测试 网上关于 coreseek 在 windows 下安装与使用的教程有很多,官方也有详细的教程,这里我也只是按着官方提供的教程详 ...
- Windows下Memcache的安装与在php中使用
memcache dll插件和测试例子下载地址: http://pecl.php.net/package/memcache Windows下Memcache的安装方法 Memcached官方:http ...
- Windows下的Memcache安装与测试教程
Windows下的Memcache安装 1.下载memcache for windows. 下载地址:http://splinedancer.com/memcached-win32/,推荐下载bina ...
- Mysql在windows下的免安装配置步骤和重新安装的步骤
windows下mysql免安装配置 1. 下载mysql免安装压缩包 下载mysql-5.6.22-winx64.zip 解压到本地D:\mysql-5.6.22-winx64 2. 修改配置文件 ...
- DEDECMS最新5.7版在Windows下的Memcache安装
一,织梦后台后台设置进入系统后台,在[系统基本参数]下面的"性能选项"卡当中,关于memcache进行如下配置: cfg_memcache_enable : 是否启用memcach ...
随机推荐
- php开发环境以及插件的配置安装
目前网上提供的常用的PHP集成环境主要有AppServ.phpStudy.WAMP和XAMPP等软件
- Fragment+Activity传递数据
自己经常使用的知识点,每次到要用的时候都还要再查一次才能懂得使用,终于体会到总结的必要性了. Activity传递数据给Fragment Bundle bundle_fragment=new Bund ...
- truncate和 delete的区别:
1.一个表要删除全部数据如何实现:①delete,②truncate EG:删除a表中的所有数据: CREATE TABLE `b` ( `id` int(11) NOT NULL AUTO_INCR ...
- git 撤销修改以及删除文件
撤销修改 1.如果当你修改了代码,然后又发现修改错误以后,想撤销前面的操作的时候该怎么办呢? 既然错误发现得很及时,就可以很容易地纠正它.你可以删掉最后一行,手动把文件恢复到上一个版本的状态.如果用 ...
- Floyd判圈算法(判断是否有环)
介意转吗博主~~http://blog.csdn.net/thestoryofsnow/article/details/6822576,我知道不介意啦~ 问题:如何检测一个链表是否有环,如果有,那么如 ...
- JDBC与ODBC的区别与应用
jdbc是使用通过JAVA的数据库驱动直接和数据库相连,而jdbc-odbc连接的是ODBC的数据源,真正与数据库建立连接的是ODBC! 建议使用JDBC直接连接,同时最好使用连接池! JDBC 是 ...
- 基于spark实现表的join操作
1. 自连接 假设存在如下文件: [root@bluejoe0 ~]# cat categories.csv 1,生活用品,0 2,数码用品,1 3,手机,2 4,华为Mate7,3 每一行的格式为: ...
- 20160504-hibernate入门
关系型数据库与面向对象 模型不匹配(阻抗不匹配) Java面向对象语言,对象模型,其主要概念有:继承.关联.多态等:数据库是关系模型,其主要概念有:表.主键.外键等. 解决办法: 1使用JDBC手工转 ...
- shell小程序
因此需要挑选学生,因此需要一个抓阄的程序:要求:1.执行脚本后,想去的同学输入英文名字全拼,产生随机数01-99之间的数字,数字越大就去参加项目实践,前面已经抓到的数字,下次不能在出现相同数字.2.第 ...
- 使用 vmstat 监测系统性能
在linux/unix下,vmstat是常用的系统性能监测工具.常用用法如下 vmstat 1 10 表示以1秒为间隔,做相关参数的采样,一共10次.输出范例如下: procs ----------- ...