linux下scrapy环境搭建
最近使用scrapy做数据挖掘,使用scrapy定时抓取数据并存入MongoDB,本文记录环境搭建过程以作备忘
OS:ubuntu 14.04 python:2.7.6 scrapy:1.0.5 DB:MongoDB 3
ubuntu14.04内置python2.7,因此python及pip安装不再赘述。
一.安装scrapy
pip install Scrapy 由于scrapy相关依赖较多,因此在安装过程中可能遇到如下问题:
1.ImportError: No module named w3lib.http
解决:pip install w3lib
2.ImportError: No module named twisted
解决:pip install twisted
3.ImportError: No module named lxml.html
解决:pip install lxml
4.error: libxml/xmlversion.h: No such file or directory
解决:apt-get install libxml2-dev libxslt-dev
apt-get install python-lxml
5.ImportError: No module named cssselect
解决:pip install cssselect
6.ImportError: No module named OpenSSL
解决:pip install pyOpenSSL
以上基本涵盖安装过程中可能出现的依赖问题,如有遗漏待发现后补充
使用scrapy --version 如显示出版本信息则安装成功
二:MongoDB安装及权限设置
1.MongoDB安装
要将爬虫爬取的对象存入MongoDB首先安装MongoDB,,可以直接使用apt-get安装,详情见http://docs.mongoing.com/manual-zh/tutorial/install-mongodb-on-ubuntu.html,也可以从MongoDB官网下载安装包。我使用的方式是从官网直接下载最新安装包。
下载完后解压,是一个.gz文件,直接用tar命令解压即可,注意不要使用gunzip命令。接着将解压之后的包移到制定目录下(例如放到/usr/local/mongodb文件夹下),配置环境变量export PATH=<mongodb-install-directory>/bin:$PATH
注意:MongoDB的数据存储在/data/db目录下,这个目录需要手动创建(EX. /usr/local/mongodb/data/db)
接着进入bin目录下执行./mongod,即可启动MongoDB了,在浏览器中输入localhost:27017或localhost:28017,如果有内容则说明启动成功。接着执行./mongo命令,就进入了mongo shell控制台,然后就可以操作mongo了。
2.权限管理
mongo默认没有设置权限,所以只要可以接入的用户都可以访问并且执行任何操作,因此要设置权限。一个需要注意的地方是mongo3和mongo2的权限设置颇有不同,相互之间不能照搬。这里仅说明mongo3的设置方法。
1)首先使用不验证方式(不要加 --auth)启动mongo: ./mongod
2)进入mongo shell 控制台,先执行show dbs,可以发现只有一个local数据库,这时要创建一个admin数据库:
use admin
db.createUser(
{user: "root",
pwd: "1234",
roles: [ { role: "userAdminAnyDatabase", db: "admin" } ]
})
注意:roles中的db是必须设置的
3)执行show users,如果看到有了刚才新建的用户则说明创建用户成功
4)关闭mongo:use admin db.shutdownserver()
5)使用验证模式启动mongo: ./mongod --auth
6)再次进入mongo shell 控制台,切换到admin数据库,此时需要授权才能执行其它操作:db.auth("root","1234")完成授权,若显示1则授权成功,由于此用户root只有管理用户的权限,因此如果用该用户执行查询操作(如show collections)会显示拒绝执行
7)接着创建一个新用户,创建用户只能在其相应的数据库中建立。例如要建立一个在数据库pms中拥有读写权限的用户:
use pms
db.createUser(
{ user: "zhangsan",
pwd: "1234",
roles: [ { role: "readWrite", db: "pms" } ]
})
然后可以切换到admin数据库查看所有用户,可以发现已经有新建的这个用户了
8)然后切回pms数据库验证一下,use pms ,然后授权db.auth("zhangsan","1234"),执行show collectionsm,可以发现pms库中的所有collections就展示出来了
以上就是mongo的用户权限管理。详情参考官方文档http://docs.mongoing.com/manual-zh/core/authentication-mechanisms.html
3.设置守护进程
通过./mongod开启了mongo后会发现一旦关闭窗口mongo的进程就被杀死了,所以要设置mongo为守护进程
只要执行sudo ./mongod --fork --logpath ./mongodb.log 即可,注意:一旦设置了--fork 则必须同时设置日志路径(--logpath)
三:写爬虫
接下来根据自身要求写爬虫。详情参考官方文档即可http://doc.scrapy.org/en/0.14/intro/tutorial.html,在此不再赘述。
至于爬虫与MongoDB对接只需更改pipline.py即可。详情参考官方文档http://doc.scrapy.org/en/1.0/topics/item-pipeline.html
需要注意的是pymongo的版本问题,不知是否由于MongoDB2与MongoDB3差别不小所以对应的pymongo版本也不尽相同,因此注意安装的pymongo版本尽量与数据库版本相匹配。
由于我写的爬虫都是单一爬虫,每个爬虫固定爬取一个站点,因此写了一个shell脚本一次执行所有爬虫,同时也方便之后执行的定时任务,注意脚本要放在用scrapy startproject建立的项目的首层文件夹下(如果已经通过脚本设置了路径就不需要了)
四:设置定时任务
之后将爬虫设置为定时任务,定于每天早上8:00定时抓取。
使用linux的crontab功能做定时任务,执行crontab -e进入编辑模式,在最下方加上0 8 * * * 你要执行的命令 即可(表示每天8点定时执行你设定的命令)
如果要将执行结果写入某文件可以如此编辑:
0 8 * * * 你要执行的命令>你想把执行结果写入的文件 2>&1 (EX. 0 8 * * * /home/ubuntu/test>/home/ubuntu/log.txt 2>&1 表示每天早上8点执行home/ubuntu/test脚本并将执行结果写入/home/ubuntu/log.txt文件)
注意:使用定时执行的脚本中如果使用到非系统本身的命令建议使用绝对路径以避免出错以及其它不必要的麻烦。
以上就是scrapy环境搭建,对接mongo并设置定时任务的步骤。
相关参考:
MongoDB官方手册:http://docs.mongoing.com/manual-zh/contents.html
scrapy官方文档:http://doc.scrapy.org/en/1.0/index.html
linux下scrapy环境搭建的更多相关文章
- linux下LAMP环境搭建
++++++++++++++++++++++++++++++++++++++++++++++ linux下LAMP环境搭建 ++++++++++++++++++++++++++++++++++++++ ...
- 2017.7.18 linux下ELK环境搭建
参考来自:Linux日志分析ELK环境搭建 另一篇博文:2017.7.18 windows下ELK环境搭建 0 版本说明 因为ELK从5.0开始只支持jdk 1.8,但是项目中使用的是JDK 1 ...
- linux下LAMP环境搭建尝试
最近,学习搭建了LAMP服务环境,中间遇到了很多问题,经过不断摸索总算得以解决.为了大家少走弯路,现将相关经验进行总结. linux下软件安装分为自动安装和手动安装两种,自动安装借助工具如yum等,自 ...
- linux下PHP 环境搭建
linux下环境搭建 第一步 安装Apache2 sudo apt-get install apache2 第二步 安装PHP模块 sudo apt-get install php5 第三 ...
- Linux 下LAMP环境搭建_【all】
LAMP = Linux + Apache + Mysql + PHP 0. Linux环境搭建 Linux 系统安装[Redhat] 1.http服务软件分类及企业实战用途介绍 静态程序: Apac ...
- Linux 下LNMP环境搭建_【all】
LNMP = Linux + Nginx + Mysql + PHP 1.0 Linux环境搭建 Linux 系统安装[Redhat] 1.1. FastCGI介绍 1.什么是CGI(common g ...
- Zedboard学习(二):zedboard的Linux下交叉编译环境搭建 标签: 交叉编译linuxzedboard 2017-07-04 23:49 19人阅读
环境准备 首先肯定是要下载xilinx-2011.09-50-arm-xilinx-linux-gnueabi.bin文件,这是官方提供的linux下交叉编译链安装文件,下载地址为:https://p ...
- Linux下-LNMP环境搭建博客网站(全过程)
通常我们所说的LNMP是指一个网站基本的组织框架,即Linux系统支持,Nginx静态服务,Mysql数据库支持以及PHP动态编程语言支持.目前Mysql数据库被Oracle数据库分析公司收购,其创始 ...
- Linux下svn环境搭建
不久前买了一个阿里云服务器,想着在上面搭建一个svn服务方便自己的代码管理.顺便记录下自己的搭建过程 首先,安装服务 通过yum -stall subversion 安装snv,可能install之前 ...
随机推荐
- 【Android Developers Training】 74. 序言:通过无线连接设备
注:本文翻译自Google官方的Android Developers Training文档,译者技术一般,由于喜爱安卓而产生了翻译的念头,纯属个人兴趣爱好. 原文链接:http://developer ...
- 15个必须知道的 Chrome 开发技巧
在 Web 开发者中,Chrome 是使用最广泛的浏览器.六周一次的发布周期和一套强大的不断扩大开发功能,使其成为了web开发者必备的工具.你可能已经熟悉了它的部分功能,如使用 console 和 d ...
- 【转】Header Only Library的介绍
什么是Header Only Library Header Only Library把一个库的内容完全写在头文件中,不带任何cpp文件. 这是一个巧合,决不是C++的原始设计. 第一次这么做估计是ST ...
- 谈谈关于PHP的代码安全相关的一些致命知识
谈谈关于PHP的代码安全相关的一些致命知识 目标 本教程讲解如何防御最常见的安全威胁:SQL 注入.操纵 GET 和 POST 变量.缓冲区溢出攻击.跨站点脚本攻击.浏览器内的数据操纵和远程表单提交. ...
- Java自学手记——servlet3.0新特性
servlet3.0出来已经很久了,但市场上尚未普遍应用,servlet3.0有三个比较重要的新特性:使用注解来代替配置文件,异步处理以及上传组件支持. 支持servlet3.0的要求:MyEclip ...
- 64位Win10系统安装Mysql5.7.11
最近在装了64位Win10系统的mac book笔记本上用mysql-installer-community-5.7.11.0安装Mysql5.7.11,在配置mysql server时老是卡住,报错 ...
- mysql表生成JavaBean
MySQLToBean.java package org.just.util; import java.io.File; import java.io.FileInputStream; import ...
- <object>元素+svg 绘制图片
结果图: 将以下代码保存至sample.svg文件中: <!-- SVG图形一开始生命命名空间 --> <svg xmlns="http://www.w3.org/2000 ...
- 【微信小程序】wx.openLocation调取失败
在调取地图的时候发现,wx.openLocation的方法在模拟器和安卓手机上都可以用,在苹果手机上报错. 报错为调取失败:fail invoke too frequently ...
- TCP服务通讯
一.TCP 1.TCP又叫做套接字,传输安全,速度慢. TCP和UTP是网络的传输协议,跟java没什么关系,没有说用java做的客户端必须连接java做的服务器,我们可以用c和c++做客户端,直接连 ...