下午被一个问题困扰了好一阵。终于使用还有一种方式解决。

開始教程二。关于Scrapy安装、介绍等请移步至教程(一)(http://blog.csdn.net/u012150179/article/details/32343635)。

在開始之前如果你已经安装成功一切所需,整怀着一腔热血想要抓取某站点。

一起来have a try。

1. 前期基础准备。

Oh,不能在准备了,直接来。

(1) 创建项目。

输入:

scapy startproject w3school

以上创建项目w3school。这时会产生w3school目录,目录下文件例如以下:

scrapy.cfg
w3school/
__init__.py
items.py
pipelines.py
settings.py
spiders/
__init__.py

当中scrapy.cfg目的配置文件。主要改写的是w3school中的三个文件以及当中spiders中须要编写的爬虫。

一个一个来。

(2) 在items.py中定义Item容器。也就是编写items.py内容。

所谓Item容器就是将在网页中获取的数据结构化保存的数据结构,类似于python中字典。以下为items.py中代码。

#project: w3school
#file : items.py
#author : younghz
#brief : define W3schoolItem. from scrapy.item import Item,Field class W3schoolItem(Item):
title = Field()
link = Field()
desc = Field()

上面定义了自己的W3schoolItem类,它继承自scrapy的Item(这里没有显示定义W3schoolItem的__init__()方法。也正由于如此,python也会为你自己主动调用基类的__init__(),否则必须显式在子类的__init__()中调用基类__init__())。

之后声明W3schoolItem中元素并使用Field定义。到此items.py就OK了。

(3) 在pipelines.py中编写W3schoolPipeline实现对item的处理

在当中主要完毕数据的查重、丢弃,验证item中数据。将得到的item数据保存等工作。代码例如以下:

import json
import codecs class W3SchoolPipeline(object):
def __init__(self):
self.file = codecs.open('w3school_data_utf8.json', 'wb', encoding='utf-8') def process_item(self, item, spider):
line = json.dumps(dict(item)) + '\n'
# print line
self.file.write(line.decode("unicode_escape"))
return item

当中的process_item方法是必须调用的用来处理item,而且返回值必须为Item类的对象。或者是抛出DropItem异常。而且上述方法将得到的item实现解码,以便正常显示中文。终于保存到json文件里。

注意:在编写完pipeline后。为了可以启动它,必须将其增加到ITEM_PIPLINES配置中,即在settings.py中增加以下一句:

ITEM_PIPELINES = {
'w3school.pipelines.W3SchoolPipeline':300
}



2.编写爬虫。

爬虫编写是在spider/目录下编写w3cshool_spider.py。

先上整个程序在慢慢解释:

#!/usr/bin/python
# -*- coding:utf-8 -*- from scrapy.spider import Spider
from scrapy.selector import Selector
from scrapy import log from w3school.items import W3schoolItem class W3schoolSpider(Spider):
"""爬取w3school标签"""
#log.start("log",loglevel='INFO')
name = "w3school"
allowed_domains = ["w3school.com.cn"]
start_urls = [
"http://www.w3school.com.cn/xml/xml_syntax.asp"
] def parse(self, response): sel = Selector(response)
sites = sel.xpath('//div[@id="navsecond"]/div[@id="course"]/ul[1]/li')
items = [] for site in sites:
item = W3schoolItem() title = site.xpath('a/text()').extract()
link = site.xpath('a/@href').extract()
desc = site.xpath('a/@title').extract() item['title'] = [t.encode('utf-8') for t in title]
item['link'] = [l.encode('utf-8') for l in link]
item['desc'] = [d.encode('utf-8') for d in desc]
items.append(item) #记录
log.msg("Appending item...",level='INFO') log.msg("Append done.",level='INFO')
return items

(1)须要注意的是编写的spider必须继承自scrapy的Spider类。

属性name即spider唯一名字,start_url能够理解为爬取入口。

(2)parse方法。

parse()是对scrapy.Spider类的override。

(3)网页中的数据提取机制。

scrapy使用选择器Selector并通过XPath实现数据的提取。关于XPath 推荐w3school的教程。

小工具:

关于网页代码中意向信息的查找能够借助几个工具:

第一个——Firefox插件Firebug。

第二个——Firefox插件XPath。能够高速的在网页中对xpath表达式的正确性进行验证。

第三个——scrapy shell.关于其使用能够查看教程。

分析:

在这里我提取的是http://www.w3school.com.cn/xml/xml_syntax.asp网页中下图部分。

即“XML 基础”下全部文件夹结构的名字、链接和描写叙述。

使用Firebug找到次部分相应的代码块后就能够使用XPath运行信息提取。Xpath表达式如上面代码中所看到的。

上面还涉及到了对item中信息的编码,是为了中文信息在json文件里的正确显示。

(4)在parse方法中还使用到了log功能实现信息记录。使用log.mes()函数就可以


3.运行。

一切就绪。

进入到项目文件夹下,运行:

scrapy crawl w3school --set LOG_FILE=log

在文件夹下生成log和w3school_data_utf8.json文件。

查看生成的json文件:

OK。这就实现了针对 http://www.w3school.com.cn/xml/xml_syntax.asp中导航条部分的提取。

原创,转载注明:http://blog.csdn.net/u012150179/article/details/32911511

关于scrapy的其他文章:

http://blog.csdn.net/u012150179/article/details/34913315

http://blog.csdn.net/u012150179/article/details/34486677

http://blog.csdn.net/u012150179/article/details/34441655

http://blog.csdn.net/u012150179/article/details/32911511

http://blog.csdn.net/u012150179/article/details/35774323

scrapy研究探索(二)——爬w3school.com.cn的更多相关文章

  1. Scrapy研究探索(六)——自己主动爬取网页之II(CrawlSpider)

    原创,转载注明:http://blog.csdn.net/u012150179/article/details/34913315 一.目的. 在教程(二)(http://blog.csdn.net/u ...

  2. Scrapy研究探索(三)——Scrapy核心架构与代码执行分析

    学习曲线总是这样,简单样例"浅尝".在从理论+实践慢慢攻破.理论永远是基础,切记"勿在浮沙筑高台". 一. 核心架构 关于核心架构.在官方文档中阐述的非常清晰, ...

  3. Scrapy研究和探索(五岁以下儿童)——爬行自己主动多页(抢别人博客所有文章)

    首先.在教程(二)(http://blog.csdn.net/u012150179/article/details/32911511)中,研究的是爬取单个网页的方法.在教程(三)(http://blo ...

  4. Python爬虫框架Scrapy实例(二)

    目标任务:使用Scrapy框架爬取新浪网导航页所有大类.小类.小类里的子链接.以及子链接页面的新闻内容,最后保存到本地. 大类小类如下图所示: 点击国内这个小类,进入页面后效果如下图(部分截图): 查 ...

  5. 关于ADMM的研究(二)

    关于ADMM的研究(二) 4. Consensus and Sharing 本节讲述的两个优化问题,是非常常见的优化问题,也非常重要,我认为是ADMM算法通往并行和分布式计算的一个途径:consens ...

  6. Scrapy爬虫框架之爬取校花网图片

    Scrapy Scrapy是一个为了爬取网站数据,提取结构性数据而编写的应用框架. 其可以应用在数据挖掘,信息处理或存储历史数据等一系列的程序中.其最初是为了页面抓取 (更确切来说, 网络抓取 )所设 ...

  7. 爬虫框架Scrapy之案例二

    新浪网分类资讯爬虫 爬取新浪网导航页所有下所有大类.小类.小类里的子链接,以及子链接页面的新闻内容. 效果演示图: items.py import scrapy import sys reload(s ...

  8. scrapy框架(二)

    scrapy框架(二) 一.scrapy 选择器 概述: Scrapy提供基于lxml库的解析机制,它们被称为选择器. 因为,它们“选择”由XPath或CSS表达式指定的HTML文档的某部分. Sca ...

  9. 【转载】python3安装scrapy之windows32位爬坑

    python3安装scrapy之windows32位爬坑 原创 2016年11月06日 01:38:08 标签: scrapy / windows / python / 开源框架 / 网络爬虫   早 ...

随机推荐

  1. 关于java发送email

    转载:https://blog.csdn.net/qq_32371887/article/details/72821291 1:使用JavaMail发送邮件 // 1.创建一个程序与邮件服务器会话对象 ...

  2. 排序算法Python(冒泡、选择、快速、插入、希尔、归并排序)

    排序有内部排序和外部排序,内部排序是数据记录在内存中进行排序,而外部排序是因排序的数据很大,一次不能容纳全部的排序记录,在排序过程中需要访问外存. 我们通常所说的排序算法往往指的是内部排序算法,即数据 ...

  3. C专家编程之为什么C语言把数组形參当做指针:数组/指针实參

    #include<stdio.h> void print_array_test(char ca[]) { printf("ca : %s\n",ca); printf( ...

  4. 经验之谈—OAuth授权流程图

    事实上我们在开发中,常常须要解决获得用户的一些特定的数据,比方:能够选择使用微博登陆.使用QQ登陆等等.然后我们间接的获得用户的头像.昵称等信息.这些都涉及到OAuth授权的内容 OAuth授权有这么 ...

  5. HDU4763-Theme Section(KMP+二分)

    Theme Section Time Limit: 2000/1000 MS (Java/Others)    Memory Limit: 32768/32768 K (Java/Others) To ...

  6. Linux 技巧:让进程在后台可靠执行的几种方法

    我们常常会碰到这种问题.用 telnet/ssh 登录了远程的 Linux server,执行了一些耗时较长的任务, 结果却因为网络的不稳定导致任务中途失败.怎样让命令提交后不受本地关闭终端窗体/网络 ...

  7. 使用rsync同步数据(by quqi99)

    作者:张华  发表于:2015-12-28版权声明:能够随意转载,转载时请务必以超链接形式标明文章原始出处和作者信息及本版权声明 ( http://blog.csdn.net/quqi99 ) 急需使 ...

  8. 转换Arcgis Server REST接口实现OL2直接调用

    概述: 本文解说怎样通过Arcgis Server REST 的导出地图(Export)接口.实如今OL2中直接以WMS的方式调用Arcgis Server REST服务. 实现思路: 1.rest的 ...

  9. ROS-动态参数

    前言:在节点外部改变参数的方式有:参数服务器.服务.主题以及动态参数. 1.新建cfg文件 在chapter2_tutorials包下新建cfg文件夹,在cfg文件夹下新建chapter2.cfg文件 ...

  10. Git diff 代码比较的高级技巧

    Git diff 代码比较的高级技巧 作者:offbye 出处:http://blog.csdn.net/offbye/article/details/6592563 Git是使用branch来管理不 ...