爬取策略

关注公众号“轻松学编程”了解更多。

在爬虫系统中,待抓取URL队列是很重要的一部分。待抓取URL队列中的URL以什么样的顺序排列也是一个很重要的问题,因为这涉及到先抓取那个页面,后抓取哪个页面。而决定这些URL排列顺序的方法,叫做抓取策略。下面重点介绍几种常见的抓取策略:

一、深度优先遍历策略

深度优先遍历策略是指网络爬虫会从起始页开始,一个链接一个链接跟踪下去,处理完这条线路之后再转入下一个起始页,继续跟踪链接。我们以下面的图为例:遍历的路径:A-F-G E-H-I B C D

1、递归实现流程

a.获取种子链接 b.设置爬取深度 c.判断是否超出深度 d.爬取数据 e.生成子类url链接池 f.遍历子链接池,去重 g.深度加1,递归

import re
import requests # 设置请求头
headers = {
"User-Agent": "Mozilla/5.0 (Windows NT 10.0;
Win64; x64) AppleWebKit/537.36 (KHTML,
like Gecko) Chrome/65.0.3325.181 Safari/537.36"} def getHtml(url):
'''
获取html源码
:param url:
:return:
'''
response = requests.get(url,headers=headers)
return response.content.decode("utf-8",errors="ignore") def getUrl(url):
'''
获取新url
:param url:链接
:return: urllist
'''
# 获取html
html = getHtml(url)
# print(html)
# 清洗出新的url
'''
<a class="title-content" href="https://www.baidu.com/s?
cl=3&ap;rsv_idx=2" target="_blank">世界杯八强出炉</a>
'''
urlre = '<a .*href="(https?://.*?)".*'
urlList = re.findall(urlre,html)
print(urlList)
return urlList def getInfo(url):
'''
爬取数据
:param url:
:return:
'''
pass def depthSpider(url,depth):
'''
递归实现深度爬取数据
:param url: url链接
:param depth: 爬取深度限制
:return:
'''
# 判断是否超出深度,超出就结束
if depthDict[url] > depth:
return
print("\t"*depthDict[url], "抓取第%d层:%s"
%(depthDict[url], url))
# 要实现的爬虫,爬取数据
# getInfo(url) #生成子类url链接池
sonUrlList = getUrl(url) #遍历子链接池
for newurl in sonUrlList:
#去重
if newurl not in depthDict:
#层级加1
depthDict[newurl] = depthDict[url]+1
#递归
depthSpider(newurl,depth) if __name__ == '__main__':
# 种子链接
startUrl = "https://www.baidu.com/s?wd=世界杯"
#设置爬取深度,设置爬取深度为4
depthLimit = 2
depthDict = {}
depthDict[startUrl] = 1
# 深度抓取
depthSpider(startUrl,depthLimit)
2、栈实现流程

a.获取种子链接 b.用栈实现深度,设置爬取深度 c.判断栈是否为空 d.从栈中拿出一个url e.判断是否超出深度 f.爬取数据 g.生成子类url链接池 h.遍历子链接池,去重 i.深度加1,添加到栈中

import requests
import re # 设置请求头
header = {
"User-Agent": "Mozilla/5.0 (Windows NT 10.0;
Win64; x64) AppleWebKit/537.36 (KHTML,
like Gecko) Chrome/65.0.3325.181 Safari/537.36"} def getHtml(url):
'''
获取html源码
:param url:
:return:
'''
response = requests.get(url,headers=header)
return response.content.decode("utf-8",errors="ignore") def getUrl(url):
'''
生成url链接池
:param url: 链接
:return: 列表
'''
# 获取html源码
html = getHtml(url)
# print(html)
# 清洗出新的url
'''
<a class="title-content" href="https://www.baidu.com/s?
cl=3&ap;rsv_idx=2" target="_blank">世界杯八强出炉</a>
'''
urlre = '<a .*href="(https?://.*?)".*'
urlsList = re.findall(urlre,html)
return urlsList def getInfo(url):
'''
爬取数据
:param url:
:return:
'''
pass def stackSpider(depth):
'''
栈实现深度爬取数据
:param depth: 深度
:return:
'''
while len(urlList) > 0:
# 从栈中取出一个url,先进后出
url = urlList.pop()
if depthDict[url] <= depth:
print("\t\t\t" * depthDict[url],
"抓取了第%d层:%s" % (depthDict[url], url)) # 要实现的爬虫,爬取数据
# getInfo(url)
# 生成子类url链接池
sonUrlLisr = getUrl(url)
# 遍历子类url链接池
for newurl in sonUrlLisr:
if newurl not in depthDict:
depthDict[newurl] = depthDict[url] +1
#深度加1,添加到栈中
urlList.append(newurl) if __name__ == '__main__':
#设置种子链接
startUrl = "https://www.baidu.com/s?wd=世界杯"
#用队列实现广度
urlList = []
urlList.append(startUrl)
# 设置爬取深度,设置爬取深度为4
depthLimit = 3
depthDict = {}
depthDict[startUrl] = 1
# 广度爬取
stackSpider(depthLimit)

二、广度优先遍历策略

广度优先遍历策略的基本思路是,将新下载网页中发现的链接直接追加到待抓取URL队列的末尾。也就是指网络爬虫会先抓取起始网页中链接的所有网页,然后再选择其中的一个链接网页,继续抓取在此网页中链接的所有网页。还是以上面的图为例:遍历路径:A-B-C-D-E-F-G-H-I

1、队列实现流程

a.获取种子链接 b.用队列实现广度,设置爬取深度 c.判断队列是否为空 d.从队列拿出一个url e.判断是否超出深度 f.爬取数据 g.生成子类url链接池 h.遍历子链接池,去重 i.深度加1,添加到队列中

'''
a.获取种子链接 b.用队列实现广度,设置爬取深度 c.判断队列是否为空
d.从队列拿出一个url e.判断是否超出深度 f.爬取数据
g.生成子类url链接池 h.遍历子链接池,去重 i.深度加1,添加到队列中
'''
import requests
import re # 设置请求头
header = {
"User-Agent": "Mozilla/5.0 (Windows NT 10.0;
Win64; x64) AppleWebKit/537.36 (KHTML,
like Gecko) Chrome/65.0.3325.181 Safari/537.36"} def getHtml(url):
'''
获取html源码
:param url:
:return:
'''
response = requests.get(url,headers=header)
return response.content.decode("utf-8",errors="ignore") def getUrl(url):
'''
生成url链接池
:param url: 链接
:return: 列表
'''
# 获取html源码
html = getHtml(url)
# print(html)
# 清洗出新的url
'''
<a class="title-content" href="https://www.baidu.com/s?
cl=3&ap;rsv_idx=2" target="_blank">世界杯八强出炉</a>
'''
urlre = '<a .*href="(https?://.*?)".*'
urlsList = re.findall(urlre,html)
return urlsList def getInfo(url):
'''
爬取数据
:param url:
:return:
'''
pass def vastSpider(depth):
'''
队列实现广度爬取数据
:param depth: 深度
:return:
'''
while len(urlList) > 0:
# 从队列中取出一个url
url = urlList.pop(0)
if depthDict[url] <= depth:
print("\t\t\t" * depthDict[url],
"抓取了第%d层:%s" % (depthDict[url], url)) # 要实现的爬虫,爬取数据
# getInfo(url)
# 生成子类url链接池
sonUrlLisr = getUrl(url)
# 遍历子类url链接池
for newurl in sonUrlLisr:
#去重
if newurl not in depthDict:
depthDict[newurl] = depthDict[url] +1
#深度加1,添加到队列中
urlList.append(newurl) if __name__ == '__main__':
#设置种子链接
startUrl = "https://www.baidu.com/s?wd=世界杯"
#用队列实现广度
urlList = []
urlList.append(startUrl)
# 设置爬取深度,设置爬取深度为4
depthLimit = 2
depthDict = {}
depthDict[startUrl] = 1
# 广度爬取
vastSpider(depthLimit)

后记

【后记】为了让大家能够轻松学编程,我创建了一个公众号【轻松学编程】,里面有让你快速学会编程的文章,当然也有一些干货提高你的编程水平,也有一些编程项目适合做一些课程设计等课题。

也可加我微信【1257309054】,拉你进群,大家一起交流学习。
如果文章对您有帮助,请我喝杯咖啡吧!

公众号

关注我,我们一起成长~~

python爬虫爬取策略的更多相关文章

  1. Python爬虫 - 爬取百度html代码前200行

    Python爬虫 - 爬取百度html代码前200行 - 改进版,  增加了对字符串的.strip()处理 源代码如下: # 改进版, 增加了 .strip()方法的使用 # coding=utf-8 ...

  2. 用Python爬虫爬取广州大学教务系统的成绩(内网访问)

    用Python爬虫爬取广州大学教务系统的成绩(内网访问) 在进行爬取前,首先要了解: 1.什么是CSS选择器? 每一条css样式定义由两部分组成,形式如下: [code] 选择器{样式} [/code ...

  3. 使用Python爬虫爬取网络美女图片

    代码地址如下:http://www.demodashi.com/demo/13500.html 准备工作 安装python3.6 略 安装requests库(用于请求静态页面) pip install ...

  4. Python爬虫|爬取喜马拉雅音频

    "GOOD Python爬虫|爬取喜马拉雅音频 喜马拉雅是知名的专业的音频分享平台,用户规模突破4.8亿,汇集了有声小说,有声读物,儿童睡前故事,相声小品等数亿条音频,成为国内发展最快.规模 ...

  5. python爬虫爬取内容中,-xa0,-u3000的含义

    python爬虫爬取内容中,-xa0,-u3000的含义 - CSDN博客 https://blog.csdn.net/aiwuzhi12/article/details/54866310

  6. Python爬虫爬取全书网小说,程序源码+程序详细分析

    Python爬虫爬取全书网小说教程 第一步:打开谷歌浏览器,搜索全书网,然后再点击你想下载的小说,进入图一页面后点击F12选择Network,如果没有内容按F5刷新一下 点击Network之后出现如下 ...

  7. python爬虫—爬取英文名以及正则表达式的介绍

    python爬虫—爬取英文名以及正则表达式的介绍 爬取英文名: 一.  爬虫模块详细设计 (1)整体思路 对于本次爬取英文名数据的爬虫实现,我的思路是先将A-Z所有英文名的连接爬取出来,保存在一个cs ...

  8. 一个简单的python爬虫,爬取知乎

    一个简单的python爬虫,爬取知乎 主要实现 爬取一个收藏夹 里 所有问题答案下的 图片 文字信息暂未收录,可自行实现,比图片更简单 具体代码里有详细注释,请自行阅读 项目源码: # -*- cod ...

  9. python爬虫-爬取百度图片

    python爬虫-爬取百度图片(转) #!/usr/bin/python# coding=utf-8# 作者 :Y0010026# 创建时间 :2018/12/16 16:16# 文件 :spider ...

随机推荐

  1. spark-1-架构设计&基本流程

    Spark运行架构包括: (1)集群资源管理器(Cluster Manager) (2)运行作业任务的工作节点(Worker Node) (3)每个应用的任务控制节点(Driver)和每个工作节点上负 ...

  2. SpringBoot整合SpringDataJPA,今天没啥事情就看了一下springboot整合springdataJPA,实在是香啊,SQL语句都不用写了

    SpringBoot整合SpringDataJPA 1.JPA概念 JPA是Java Persistence API的简称,中文名Java持久层API,是JDK 5.0注解或XML描述对象-关系表的映 ...

  3. 深入理解Callable接口

    Callable接口: Callable,新启线程的一种方式,返回结果并且可能抛出异常的任务,在前面的新启线程的文章中用过,但是没有具体讲解 优点: 可以获取线程的执行结果,也称为返回值 通过与Fut ...

  4. GetPrivateProfileString

    参考: 1. https://blog.csdn.net/tunnel115/article/details/3081340 2. https://blog.csdn.net/hopedream200 ...

  5. HanLP的分词统计

    HanLP的分词效果鄙人研究了HanLP,他的分词效果确实还可以,而且速度也比较快,10的数据是9000毫秒 @SneakyThrows@Overridepublic LinkedHashMap< ...

  6. 高效的后端API开发模板-illuminant

    概要 整体介绍 补充说明 Q. 有了 prisma 自动生成的 graphql 接口, 为什么还要 rest 接口和 websocket 接口? Q. 为什么要通过 illuminant 加一层反向代 ...

  7. 多测师讲解接口测试 _linux中搭建环境cms_高级讲师肖sir

    cms后台的搭建, 我们主要是用来做接口测试和接口自动化测试: 我们搭建的流程和之前搭建多有米一样: 后期给我们一个war包就要知道搭建一个文档: 要知道环境项目怎么讲?   讲解下搭建cms环境的流 ...

  8. day25 Pyhton学习 约束和异常处理

    一.类的约束 约束是对类的约束 有两种方法: 1.提取一个父类,在父类中给出一个方法,并且在方法中不给出任何代码,直接抛异常 class Base: def login(self): raise Ex ...

  9. linux-设置hostname

    设置linux root后面的名字   

  10. STM32芯片型号的命名规则

    意法半导体已经推出STM32基本型系列.增强型系列.USB基本型系列.增强型系列:新系列产品沿用增强型系列的72MHz处理频率.内存包括64KB到256KB闪存和20KB到64KB嵌入式SRAM.新系 ...