1. 创建项目文档

在目标路径下,打开命令行,使用如下命令创建项目,例如项目名称为 "tutorial":

  1 scrapy startproject tutorial

- 创建项目时,会自动创建对应的目录,所以没有必要自己先预先创建项目名称的目录

2. 使用pycharm创建项目

由于是在windows下采用pycharm的IDE进行开发,因此直接在pycharm上创建一个项目,目录为第一步用命令创建的目录。

如果不想用IDE,也可以直接用文本编辑器编辑,或者使用其他IDE。

3. 修改item

使用第一步的命令创建项目后,会有默认的item类,如果有必要的画,可自行的该类中添加对应的item字段,如:

  1 class DmozItem(scrapy.Item):
2 # define the fields for your item here like:
3 # name = scrapy.Field()
4 title = scrapy.Field()
5 link = scrapy.Field()
6 desc = scrapy.Field()
7

4. 创建spider

spiders/ 目录下创建对应的spider文件,如 demo_spider.py

  1 import scrapy
2 from tutorial.items import DmozItem
3
4 class DmozSpider(scrapy.Spider):
5 name = "dmoz"
6 allowed_domains = ["dmoz.org"]
7 start_urls = [
8 "http://dmoztools.net/Computers/Programming/Languages/Python/Books/",
9 ]
10
11 def parse(self, response):
12 for sel in response.xpath('//ul/li'):
13 item = DmozItem()
14 item['title'] = sel.xpath('a/text()').extract()
15 item['link'] = sel.xpath('a/@href').extract()
16 item['desc'] = sel.xpath('text()').extract()
17 yield item
18

上述代码简要说明如下:

1) from tutorial.items import DmozItem:导入 Item

2) name = "dmoz":spider的名字,在一个项目中,每个spider的名字都必须是唯一的,这个名字在运行时需要被指定,如要运行上述spider的命令为: scrapy crawl dmoz

3) strat_urls: 用来指定目标url的数组,scrapy会根据这个数组中的url,逐个去产生Request请求,可以说是“爬虫”的入口或者起始点;除了通过数组方式指定外,也可以用函数的方式生成,指定对应的url和回调函数,例如:

  1 def start_requests(self):
2 url_page = "http://dmoztools.net/Computers/Programming/Languages/Python/Books/"
3 yield scrapy.Request(url=url_page, callback=self.parse)
4

4)yield item:产生item数据,用于将item输出

5. 使用shell进行调试

对于大部分情况来说,可能不像例子这样,直接就把 parse 函数写出来了,中间肯定要一点一点去提取相关的有用信息,确认ok之后再一点一点往 parse 函数里面添, shell 的调用方式为在命令行下输入如下命令:

  1 scrapy crawl dmoz -o dmoz.json
2

这部分参见另外的文章,在此不做赘述。

6. 运行spider

调试完成之后,就可以把爬虫运行起来了,运行方式如下:

scrapy crawl dmoz

如果需要把结果输出,可以采用 -o 设置输出文件,如:

  1 scrapy crawl dmoz -o dmoz.json
2

说明

  • 本文中的例子的代码来自Scrapy说明文档中的例子,不过用自己的语言和理解重新整理了思路,便于入手理解,但不是很全面,详细的内容可以参考官方文档;

scrapy学习笔记之hello world的更多相关文章

  1. Scrapy:学习笔记(2)——Scrapy项目

    Scrapy:学习笔记(2)——Scrapy项目 1.创建项目 创建一个Scrapy项目,并将其命名为“demo” scrapy startproject demo cd demo 稍等片刻后,Scr ...

  2. Scrapy:学习笔记(1)——XPath

    Scrapy:学习笔记(1)——XPath 1.快速开始 XPath是一种可以快速在HTML文档中选择并抽取元素.属性和文本的方法. 在Chrome,打开开发者工具,可以使用$x工具函数来使用XPat ...

  3. scrapy 学习笔记1

    最近一段时间开始研究爬虫,后续陆续更新学习笔记 爬虫,说白了就是获取一个网页的html页面,然后从里面获取你想要的东西,复杂一点的还有: 反爬技术(人家网页不让你爬,爬虫对服务器负载很大) 爬虫框架( ...

  4. scrapy学习笔记(1)

    初探scrapy,发现很多入门教程对应的网址都失效或者改变布局了,走了很多弯路.于是自己摸索做一个笔记. 环境是win10 python3.6(anaconda). 安装 pip install sc ...

  5. Scrapy学习笔记(5)-CrawlSpider+sqlalchemy实战

    基础知识 class scrapy.spiders.CrawlSpider 这是抓取一般网页最常用的类,除了从Spider继承过来的属性外,其提供了一个新的属性rules,它提供了一种简单的机制,能够 ...

  6. scrapy 学习笔记2

    本章学习爬虫的 回调和跟踪链接 使用参数 回调和跟踪链接 上一篇的另一个爬虫,这次是为了抓取作者信息 # -*- coding: utf-8 -*- import scrapy class Myspi ...

  7. scrapy学习笔记一

    以前写爬虫都是直接手写获取response然后用正则匹配,被大佬鄙视之后现在决定开始学习scrapy 一.安装 pip install scrapy 二.创建项目 scrapy startprojec ...

  8. Scrapy 学习笔记(一)数据提取

    Scrapy 中常用的数据提取方式有三种:Css 选择器.XPath.正则表达式. Css 选择器 Web 中的 Css 选择器,本来是用于实现在特定 DOM 元素上应用花括号内的样式这样一个功能的. ...

  9. scrapy 学习笔记

    1.scrapy 配合 selenium.phantomJS 抓取动态页面, 单纯的selemium 加 Firefox浏览器就可以抓取动态页面了, 但开启窗口太耗资源,而且一般服务器的linux 没 ...

  10. scrapy学习笔记

    1.scrapy用哪条命令行重新编辑已有的项目?cd projectname 2.如何在pycharm中开启scrapy?先在终端创建一个项目(即文件夹),再在pycharm中打开.

随机推荐

  1. iOS 底层解析weak的实现原理(包含weak对象的初始化,引用,释放的分析)

    原文 很少有人知道weak表其实是一个hash(哈希)表,Key是所指对象的地址,Value是weak指针的地址数组.更多人的人只是知道weak是弱引用,所引用对象的计数器不会加一,并在引用对象被释放 ...

  2. ClientDataSet使用locate或Filter定位到字段为空值的记录

    场景,程序想检查是否存在某个字段的值是空的,如果存在,则不允许增加记录,否则允许增加记录. 解决这个问题,我一开始用了两种错误的方法 if not clientdataset.locate('AFie ...

  3. 我是如何通过学习拿到年薪80w

    本人做了5年Java,如今还是一个码农,天天写业务代码,直到2018年10月中旬遇到一位技术大牛,他给我一套技术思维导图让我又看到了希望!今天分享给各位想要提升.升职.加薪的你. 普通Java程序员与 ...

  4. JS 跳出多重循环

    今天学到了如何跳出多重循环

  5. 不同版本的IDE ,对应的选项 有变化

    xx.dproj对应的项目级选项 也不同,所以,要分别保存为不同的文件. 如果不同的IDE,打开同一个 .dproj文件,会因为 选项界面的选项不同,提示一些错误.

  6. IntelliJ IDEA入门系列

    1.Java Web之Helloworld配置 2.Java Web之Maven搭建Helloworld 3.Java Web之Spring MVC简单管理系统

  7. 关于HTMl CSS

    HTML  结构       CSS   表现         JS  行为 首先说一个SEO,搜索引擎优化 标准文档流:(1)前提:在没有css的干预下     (2)块级元素:独占一行,可定义宽和 ...

  8. Python函数的一点用法

    #python的基本语法网上已经有很多详细的解释了,写在这里方便自己记忆一些 BIF是python内置的函数,任何一门语言都能用来创造函数,python也不例外 1.创建一个函数 def func() ...

  9. oracle入门之对表数据查询(三)

    oracle表复杂查询--子查询 什么是子查询? 子查询是指嵌入在其它sql语句中的select语句,也叫嵌套查询. 单行子查询 单行子查询是指只返回一行数据的子查询语句. 请思考:如果显示与smit ...

  10. 以方法调用的原理解释Ruby中“puts ‘Hello‘”

    这里尽管缺少消息发送所需要的点(.)以及该消息的显示接收者,却依然发送了消息puts并传递了参数“Hello”给一个对象:默认对象self.在程序运行期间,虽然作为self的对象通过特定规则发生改变, ...