这里写一下爬虫大概的步骤,主要是自己巩固一下知识,顺便复习一下. 一,网络爬虫的步骤 1,创建一个工程 scrapy startproject 工程名称 创建好工程后,目录结构大概如下: 其中: scrapy.cfg:项目的主配置信息(真正爬虫相关的配置信息在settings.py文件中) items.py:设置数据存储模板,用于结构化数据,如:Django的Model pipelines:数据持久化处理 settings.py:配置文件,如:递归的层数,并发数,延迟下载等 spiders:爬虫…