爬虫06 /scrapy框架

1. scrapy概述/安装

  • 异步的爬虫框架

    • 高性能的数据解析,持久化存储,全栈数据的爬取,中间件,分布式
    • Twisted:就是scrapy的异步机制,主要体现在下载器
  • 框架:就是一个集成好了各种功能且具有很强通用性的一个项目模板。

  • 环境安装:

    Linux:

    pip3 install scrapy

    Windows:

    a. pip3 install wheel
    b. 下载twisted http://www.lfd.uci.edu/~gohlke/pythonlibs/#twisted
    c. 进入下载目录,执行 pip3 install Twisted-18.9.0-cp36-cp36m-win_amd64.whl
    d. pip3 install pywin32
    e. pip3 install scrapy

2. 基本使用

1. 创建工程

  1. 新建一个工程:scrapy startproject proName

    • settings.py:当前工程的配置文件
    • spiders:爬虫包,必须要存放一个或者多个爬虫文件(.py)
  2. 切换到工程目录:cd proName

  3. 创建一个爬虫文件:scrapy genspider spiderName www.lbzhk.com

  4. 执行工程:scrapy crawl spiderName(爬虫文件名)

    settings.py:(一般在创建工程后,先在settings中作如下设置)

    1. 不遵从robots协议
    2. UA伪装
    3. 指定日志输出的类型:LOG_LEVEL = 'ERROR'
    # 设置请求头USER_AGENT
    USER_AGENT = 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/75.0.3770.142 Safari/537.36' # 是否遵循robots协议
    ROBOTSTXT_OBEY = False # 记录日志的等级
    LOG_LEVEL = 'ERROR'

2. 数据分析

  • response.xpath('xpath表达式')

  • scrapy中的xpath解析,在进行数据提取的时候,xpath方法返回的列表中存储的不再是字符串,而是存储的Selector对象,相关的字符串数据是存储在Selector对象的data参数中,我们必须使用

  • extract()/extract_first()进行字符串数据的提取

    extract():可以作用到列表中的每一个列表元素中,返回的依然是一个列表

    extract_first():只可以作用到列表中的第一个列表元素中,返回的是字符串

3. 持久化存储

  • 基于终端指令的持久化存储

    1. 在parse方法中设置返回值

    2. 执行终端指令:scrapy crawl spiderName -o ./duanzi.csv

    注意事项:

    1. 不能存入到数据库,只能对parse的返回值进行存储,且只能存入到指定后缀的文件中

    代码示例:/在工程名文件夹下的spiders文件夹中创建要爬虫的文件

    # -*- coding: utf-8 -*-
    import scrapy class FirstSpider(scrapy.Spider):
    # 爬虫名称:当前爬虫文件的唯一标识
    name = 'first'
    # 允许的域名
    # allowed_domains = ['www.baidu.com']
    # 起始的url列表:列表元素只可以是url
    # 作用:列表元素表示的url就会被进行请求发送
    start_urls = ['http://duanziwang.com/category/%E7%BB%8F%E5%85%B8%E6%AE%B5%E5%AD%90/'] # 数据解析
    # 调用次数是由请求次数决定
    # def parse(self, response):
    # article_list = response.xpath('/html/body/section/div/div/main/article')
    # for article in article_list:
    # # xpath在进行数据提取时,返回的不再是字符串而是一个Selector对象,想要的数据被包含在了该对象的data参数中
    # # title = article.xpath('./div[1]/h1/a/text()')[0].extract()
    # title = article.xpath('./div[1]/h1/a/text()').extract_first()
    # content = article.xpath('./div[2]//text()').extract()
    # content = ''.join(content)
    # print(title,content) # 基于终端指令的持久化存储
    def parse(self, response):
    all_data = []
    article_list = response.xpath('/html/body/section/div/div/main/article')
    for article in article_list:
    # xpath在进行数据提取时,返回的不再是字符串而是一个Selector对象,想要的数据被包含在了该对象的data参数中
    # title = article.xpath('./div[1]/h1/a/text()')[0].extract()
    title = article.xpath('./div[1]/h1/a/text()').extract_first()
    content = article.xpath('./div[2]//text()').extract()
    content = ''.join(content)
    dic = {
    'title':title,
    'content':content
    }
    all_data.append(dic)
    return all_data # 将解析到的数据进行了返回
  • 基于管道的持久化存储

    1. 在爬虫文件中数据解析
    2. 将解析到的数据封装到一个叫做Item类型的对象
    3. 将item类型的对象提交给管道
    4. 管道负责调用process_item的方法接收item,然后进行某种形式的持久化存储
    5. 在配置文件中开启管道

    注意事项:

    1. 一个管道类对应一种形式的持久化存储,当需要存到不同的数据库或文件中,需要用到多个管道类

    2. process_item中的return item:可以将item提交给下一个即将被执行的管道类

    3. 如果直接将一个字典写入到redis报错的话/新版本不支持:pip install redis==2.10.6

    代码示例:

    settings配置文件

    ITEM_PIPELINES = {
    'duanzi.pipelines.DuanziPipeline': 300,
    }

    定义一个Item类:items.py

    import scrapy
    
    class DuanziproItem(scrapy.Item):
    title = scrapy.Field()
    content = scrapy.Field()

    爬虫文件:duanzi.py

    import scrapy
    from DuanziPro.items import DuanziproItem class DuanziSpider(scrapy.Spider):
    name = 'duanzi'
    # allowed_domains = ['www.xxx.com']
    start_urls = ['http://duanziwang.com/category/%E7%BB%8F%E5%85%B8%E6%AE%B5%E5%AD%90/'] def parse(self, response):
    article_list = response.xpath('/html/body/section/div/div/main/article')
    for article in article_list:
    title = article.xpath('./div[1]/h1/a/text()').extract_first()
    content = article.xpath('./div[2]//text()').extract()
    content = ''.join(content)
    # 实例化一个item类型的对象,然后将解析到的一组数据存进去
    item = DuanziproItem()
    item['title'] = title
    item['content'] = content yield item # 将item提交给管道

    管道处理持久化存储:piplines.py

    class DuanziproPipeline(object):
    fp = None
    def open_spider(self,spider):
    print('开始爬虫......')
    self.fp = open('./duanzi.txt','w',encoding='utf-8')
    # 方法每被调用一次,参数item就是其接收到的一个item类型的对象
    def process_item(self, item, spider):
    # print(item) # item就是一个字典
    self.fp.write(item['title']+':'+item['content']+'\n')
    return item # 可以将item提交给下一个即将被执行的管道类
    def close_spider(self,spider):
    self.fp.close()
    print('爬虫结束!!!')

    多个管道类分别进行不同形式的存储

    # 将数据写入到文本文件中
    import pymysql
    from redis import Redis
    class DuanziproPipeline(object):
    fp = None
    def open_spider(self,spider):
    print('开始爬虫......')
    self.fp = open('./duanzi.txt','w',encoding='utf-8')
    # 方法每被调用一次,参数item就是其接收到的一个item类型的对象
    def process_item(self, item, spider):
    # print(item) # item就是一个字典
    self.fp.write(item['title']+':'+item['content']+'\n')
    return item # 可以将item提交给下一个即将被执行的管道类
    def close_spider(self,spider):
    self.fp.close()
    print('爬虫结束!!!') # 将数据写入到mysql
    class MysqlPipeLine(object):
    conn = None
    cursor = None
    def open_spider(self,spider):
    self.conn = pymysql.Connect(host='127.0.0.1',port=3306,user='root',password='222',db='spider',charset='utf8')
    print(self.conn)
    def process_item(self,item,spider):
    sql = 'insert into duanzi values ("%s","%s")'%(item['title'],item['content'])
    self.cursor = self.conn.cursor()
    try:
    self.cursor.execute(sql)
    self.conn.commit()
    except Exception as e:
    print(e)
    self.conn.rollback()
    return item
    def close_spider(self,spider):
    self.cursor.close()
    self.conn.close() # 将数据写入到redis
    class RedisPileLine(object):
    conn = None
    def open_spider(self,spider):
    self.conn = Redis(host='127.0.0.1',port=6379)
    print(self.conn)
    def process_item(self,item,spider):
    self.conn.lpush('duanziData',item)
    return item

3. 全栈数据的爬取

  • 手动请求的发送

    yield scrapy.Request(url=new_url,callback=self.parse)
    
    # url:指定要发送请求的url
    # callback:指定对请求结果做解析的回调函数

    代码示例:

    # 全栈数据爬取对应的操作
    import scrapy
    from DuanziPro.items import DuanziproItem class DuanziSpider(scrapy.Spider):
    name = 'duanzi'
    start_urls = ['http://duanziwang.com/category/经典段子/']
    # 通用的url模板
    url = 'http://duanziwang.com/category/经典段子/%d/'
    pageNum = 1
    def parse(self, response):
    all_data = []
    article_list = response.xpath('/html/body/section/div/div/main/article')
    for article in article_list:
    title = article.xpath('./div[1]/h1/a/text()').extract_first()
    content = article.xpath('./div[2]//text()').extract()
    content = ''.join(content)
    # 实例化一个item类型的对象,然后将解析到的一组数据存进去
    item = DuanziproItem()
    item['title'] = title
    item['content'] = content
    yield item # 将item提交给管道 # 编写手动请求的操作
    if self.pageNum < 5:
    self.pageNum += 1
    print('正在下载的页码是:',self.pageNum)
    new_url = format(self.url%self.pageNum)
    yield scrapy.Request(url=new_url,callback=self.parse)

    总结:/什么时候用yield

    1. 向管道提交item的时候

    2. 手动请求发送的时候

  • 发送post请求

    yield scrapy.FromRequest(url=new_url,callback=self.parse,formdata={})
    
    # formdata:放post请求的参数
  • 为什么start_urls列表可以自动进行get请求的发送,源码实现

    # 父类对start_requests的原始实现:
    
    class DuanziSpider(scrapy.Spider):
    name = 'duanzi'
    start_urls = ['http://duanziwang.com/category/经典段子/']
    # 通用的url模板
    url = 'http://duanziwang.com/category/经典段子/%d/'
    pageNum = 1
    def start_requests(self):
    for url in self.start_urls:
    yield scrapy.Request(url,callback=self.parse)

4. 五大核心组件/对象

  • 五大核心组件的作用:

    1. 引擎(ENGINE):

      用来处理整个系统的数据流处理, 触发事务(框架核心)

    2. 调度器(Scheduler):

      用来接受引擎发过来的请求, 压入队列中, 并在引擎再次请求的时候返回. 可以想像成一个URL(抓取网页的网址或者说是链接)的优先队列, 由它来决定下一个要抓取的网址是什么, 同时去除重复的网址

    3. 下载器(Downloader):

      用于下载网页内容, 并将网页内容返回给Spiders(Scrapy下载器是建立在twisted这个高效的异步模型上的)

    4. 爬虫(Spiders):

      爬虫是主要干活的, 用于从特定的网页中提取自己需要的信息, 即所谓的实体(Item)。用户也可以从中提取出链接,让Scrapy继续抓取下一个页面

    5. 项目管道(Pipeline):

      负责处理爬虫从网页中抽取的实体,主要的功能是持久化实体、验证实体的有效性、清除不需要的信息。当页面被爬虫解析后,将被发送到项目管道,并经过几个特定的次序处理数据。

5. 适当提升scrapy爬取数据的效率

  • 增加并发:

    默认scrapy开启的并发线程为16个,可以适当进行增加。在settings配置文件中修改CONCURRENT_REQUESTS = 100值为100,并发设置成了为100。

  • 降低日志级别:

    在运行scrapy时,会有大量日志信息的输出,为了减少CPU的使用率。可以设置log输出信息为INFO或者ERROR即可。在配置文件中编写:LOG_LEVEL = ‘ERROR’

  • 禁止cookie:

    如果不是真的需要cookie,则在scrapy爬取数据时可以禁止cookie从而减少CPU的使用率,提升爬取效率。在配置文件中编写:COOKIES_ENABLED = False

  • 禁止重试:

    对失败的HTTP进行重新请求(重试)会减慢爬取速度,因此可以禁止重试。在配置文件中编写:RETRY_ENABLED = False

  • 减少下载超时:

    如果对一个非常慢的链接进行爬取,减少下载超时可以能让卡住的链接快速被放弃,从而提升效率。在配置文件中进行编写:DOWNLOAD_TIMEOUT = 10 超时时间为10s

6. 请求传参

  • 作用:帮助scrapy实现深度爬取

    深度爬取:爬取的数据没有在同一张页面中(例如:爬取图片时,首先是爬到图片的链接,再通过链接将图片爬取下来)

  • 需求:爬取名称和简介,https://www.4567tv.tv/frim/index1.html

  • 实现流程:

    传参:

    yield scrapy.Request(url,callback,meta), # 将meta这个字典传递给callback

    接收参数:

    response.meta
  • 代码示例:

    items.py

    import scrapy
    
    class MovieproItem(scrapy.Item):
    title = scrapy.Field()
    desc = scrapy.Field()

    爬虫文件/深度爬取:movie.py

    import scrapy
    from moviePro.items import MovieproItem class MovieSpider(scrapy.Spider):
    name = 'movie'
    start_urls = ['https://www.4567tv.tv/index.php/vod/show/class/动作/id/1.html']
    url = 'https://www.4567tv.tv/index.php/vod/show/class/动作/id/1/page/%d.html'
    def parse(self, response):
    li_list = response.xpath('/html/body/div[1]/div/div/div/div[2]/ul/li')
    for li in li_list:
    title = li.xpath('.//div[@class="stui-vodlist__detail"]/h4/a/text()').extract_first()
    detail_url = 'https://www.4567tv.tv'+li.xpath('.//div[@class="stui-vodlist__detail"]/h4/a/@href').extract_first() item = MovieproItem()
    item['title'] = title # print(title,detail_url)
    # 对详情页的url进行手动请求发送
    # 请求传参:
    # 参数meta是一个字典,字典会传递给callback
    yield scrapy.Request(detail_url,callback=self.parse_detail,meta={'item':item})
    # 自定义的另一个解析方法(必须要有response参数)
    def parse_detail(self,response):
    # 接收传递过来的meta
    item = response.meta['item']
    desc = response.xpath('/html/body/div[1]/div/div/div/div[2]/p[5]/span[2]/text()').extract_first()
    item['desc'] = desc yield item

    爬虫文件/全栈爬取+深度爬取:movie.py

    # 深度爬取+全栈爬取
    import scrapy
    from moviePro.items import MovieproItem class MovieSpider(scrapy.Spider):
    name = 'movie'
    # allowed_domains = ['www.xxx.com']
    start_urls = ['https://www.4567tv.tv/index.php/vod/show/class/动作/id/1.html'] url = 'https://www.4567tv.tv/index.php/vod/show/class/动作/id/1/page/%d.html'
    pageNum = 1 def parse(self, response):
    li_list = response.xpath('/html/body/div[1]/div/div/div/div[2]/ul/li')
    for li in li_list:
    title = li.xpath('.//div[@class="stui-vodlist__detail"]/h4/a/text()').extract_first()
    detail_url = 'https://www.4567tv.tv'+li.xpath('.//div[@class="stui-vodlist__detail"]/h4/a/@href').extract_first() item = MovieproItem()
    item['title'] = title # print(title,detail_url)
    # 对详情页的url进行手动请求发送
    # 请求传参:
    #参数meta是一个字典,字典会传递给callback
    yield scrapy.Request(detail_url,callback=self.parse_detail,meta={'item':item}) # 全栈爬取
    if self.pageNum < 4:
    self.pageNum += 1
    new_url = format(self.url%self.pageNum)
    yield scrapy.Request(new_url,callback=self.parse)
    # 自定义的另一个解析方法(必须要有response参数)
    def parse_detail(self,response):
    # 接收传递过来的meta
    item = response.meta['item']
    desc = response.xpath('/html/body/div[1]/div/div/div/div[2]/p[5]/span[2]/text()').extract_first()
    item['desc'] = desc yield item

    pipelines.py

    class MovieproPipeline(object):
    def process_item(self, item, spider):
    print(item)
    return item

爬虫06 /scrapy框架的更多相关文章

  1. Python网络爬虫之Scrapy框架(CrawlSpider)

    目录 Python网络爬虫之Scrapy框架(CrawlSpider) CrawlSpider使用 爬取糗事百科糗图板块的所有页码数据 Python网络爬虫之Scrapy框架(CrawlSpider) ...

  2. Python逆向爬虫之scrapy框架,非常详细

    爬虫系列目录 目录 Python逆向爬虫之scrapy框架,非常详细 一.爬虫入门 1.1 定义需求 1.2 需求分析 1.2.1 下载某个页面上所有的图片 1.2.2 分页 1.2.3 进行下载图片 ...

  3. 爬虫之scrapy框架

    解析 Scrapy解释 Scrapy是一个为了爬取网站数据,提取结构性数据而编写的应用框架. 其可以应用在数据挖掘,信息处理或存储历史数据等一系列的程序中.其最初是为了页面抓取 (更确切来说, 网络抓 ...

  4. Python爬虫进阶(Scrapy框架爬虫)

    准备工作:           配置环境问题什么的我昨天已经写了,那么今天直接安装三个库                        首先第一步:                           ...

  5. 爬虫之Scrapy框架介绍

    Scrapy介绍 Scrapy是用纯Python实现一个为了爬取网站数据.提取结构性数据而编写的应用框架,用途非常广泛. 框架的力量,用户只需要定制开发几个模块就可以轻松的实现一个爬虫,用来抓取网页内 ...

  6. 16.Python网络爬虫之Scrapy框架(CrawlSpider)

    引入 提问:如果想要通过爬虫程序去爬取”糗百“全站数据新闻数据的话,有几种实现方法? 方法一:基于Scrapy框架中的Spider的递归爬取进行实现(Request模块递归回调parse方法). 方法 ...

  7. python爬虫随笔-scrapy框架(1)——scrapy框架的安装和结构介绍

    scrapy框架简介 Scrapy,Python开发的一个快速.高层次的屏幕抓取和web抓取框架,用于抓取web站点并从页面中提取结构化的数据.Scrapy用途广泛,可以用于数据挖掘.监测和自动化测试 ...

  8. 5、爬虫之scrapy框架

    一 scrapy框架简介 1 介绍 Scrapy一个开源和协作的框架,其最初是为了页面抓取 (更确切来说, 网络抓取 )所设计的,使用它可以以快速.简单.可扩展的方式从网站中提取所需的数据.但目前Sc ...

  9. Python学习---爬虫学习[scrapy框架初识]

    Scrapy Scrapy是一个框架,可以帮助我们进行创建项目,运行项目,可以帮我们下载,解析网页,同时支持cookies和自定义其他功能. Scrapy是一个为了爬取网站数据,提取结构性数据而编写的 ...

随机推荐

  1. 大厂面试过程复盘(微信/阿里/头条均拿offer,附答案篇)

    背景 本人前端,3年经验,由于个人的原因,决定跳槽,于是大概3月开始找工作,总历时大概2个月,面试了微信/阿里/头条,三家都拿到了offer,来分享一下面经. 问题比较多,而且很多面试题都是跟个人项目 ...

  2. Windows服务监控工具Perfmon

    原文:https://www.jianshu.com/p/f82c2b726ecf 一.Perfmon简介.性能监控指标.性能对象指标 Perfmon:提供了图表化的系统性能实时监视器.性能日志和警报 ...

  3. 重装conda

    重装Conda是因为想重装tensorflow,结果竟然报了各种各样稀奇古怪的错误:我贴一下自己见过的报错 The environment is inconsistent, please check ...

  4. 使用python解线性矩阵方程(numpy中的matrix类)

    这学期有一门运筹学,讲的两大块儿:线性优化和非线性优化问题.在非线性优化问题这里涉及到拉格朗日乘子法,经常要算一些非常变态的线性方程,于是我就想用python求解线性方程.查阅资料的过程中找到了一个极 ...

  5. redis缓存使用SpringDataRedis

    1. SpringDataRedis简介 1.1项目常见问题思考 我们目前的系统已经实现了广告后台管理和广告前台展示,但是对于首页每天有大量的人访问,对数据库造成很大的访问压力,甚至是瘫痪.那如何解决 ...

  6. Docker拉取镜像加速

    关于Docker拉取镜像加速 打开桌面 docker 小图标 选中框框 根据下图 添加国内的加速源即可 Docker加速源 #网易 http://hub-mirror.c.163.com #Docke ...

  7. SpringBoot读取application.properties中文乱码

    [本文版权归微信公众号"代码艺术"(ID:onblog)所有,若是转载请务必保留本段原创声明,违者必究.若是文章有不足之处,欢迎关注微信公众号私信与我进行交流!] 解决方案 在ID ...

  8. redis高级命令2

    主服务负责数据的写,从服务器负责客户端的高并发来读 创建主从复制 clone不能让上面的mac地址不能重复,IP地址也不能重复 122和123是从服务器,我们修改二者的配置文件 其中 192.168. ...

  9. 恕我直言你可能真的不会java第6篇:Stream性能差?不要人云亦云

    一.粉丝的反馈 问:stream比for循环慢5倍,用这个是为了啥? 答:互联网是一个新闻泛滥的时代,三人成虎,以假乱真的事情时候发生.作为一个技术开发者,要自己去动手去做,不要人云亦云. 的确,这位 ...

  10. 《T-GCN: A Temporal Graph Convolutional Network for Traffic Prediction》 论文解读

    论文链接:https://arxiv.org/abs/1811.05320 最近发现博客好像会被CSDN和一些奇怪的野鸡网站爬下来?看见有人跟爬虫机器人单方面讨论问题我也蛮无奈的.总之原作者Misso ...