python爬虫爬取策略
爬取策略
关注公众号“轻松学编程”了解更多。
在爬虫系统中,待抓取URL队列是很重要的一部分。待抓取URL队列中的URL以什么样的顺序排列也是一个很重要的问题,因为这涉及到先抓取那个页面,后抓取哪个页面。而决定这些URL排列顺序的方法,叫做抓取策略。下面重点介绍几种常见的抓取策略:
一、深度优先遍历策略
深度优先遍历策略是指网络爬虫会从起始页开始,一个链接一个链接跟踪下去,处理完这条线路之后再转入下一个起始页,继续跟踪链接。我们以下面的图为例:遍历的路径:A-F-G E-H-I B C D
1、递归实现流程:
a.获取种子链接 b.设置爬取深度 c.判断是否超出深度 d.爬取数据 e.生成子类url链接池 f.遍历子链接池,去重 g.深度加1,递归
import re
import requests
# 设置请求头
headers = {
"User-Agent": "Mozilla/5.0 (Windows NT 10.0;
Win64; x64) AppleWebKit/537.36 (KHTML,
like Gecko) Chrome/65.0.3325.181 Safari/537.36"}
def getHtml(url):
'''
获取html源码
:param url:
:return:
'''
response = requests.get(url,headers=headers)
return response.content.decode("utf-8",errors="ignore")
def getUrl(url):
'''
获取新url
:param url:链接
:return: urllist
'''
# 获取html
html = getHtml(url)
# print(html)
# 清洗出新的url
'''
<a class="title-content" href="https://www.baidu.com/s?
cl=3≈rsv_idx=2" target="_blank">世界杯八强出炉</a>
'''
urlre = '<a .*href="(https?://.*?)".*'
urlList = re.findall(urlre,html)
print(urlList)
return urlList
def getInfo(url):
'''
爬取数据
:param url:
:return:
'''
pass
def depthSpider(url,depth):
'''
递归实现深度爬取数据
:param url: url链接
:param depth: 爬取深度限制
:return:
'''
# 判断是否超出深度,超出就结束
if depthDict[url] > depth:
return
print("\t"*depthDict[url], "抓取第%d层:%s"
%(depthDict[url], url))
# 要实现的爬虫,爬取数据
# getInfo(url)
#生成子类url链接池
sonUrlList = getUrl(url)
#遍历子链接池
for newurl in sonUrlList:
#去重
if newurl not in depthDict:
#层级加1
depthDict[newurl] = depthDict[url]+1
#递归
depthSpider(newurl,depth)
if __name__ == '__main__':
# 种子链接
startUrl = "https://www.baidu.com/s?wd=世界杯"
#设置爬取深度,设置爬取深度为4
depthLimit = 2
depthDict = {}
depthDict[startUrl] = 1
# 深度抓取
depthSpider(startUrl,depthLimit)
2、栈实现流程:
a.获取种子链接 b.用栈实现深度,设置爬取深度 c.判断栈是否为空 d.从栈中拿出一个url e.判断是否超出深度 f.爬取数据 g.生成子类url链接池 h.遍历子链接池,去重 i.深度加1,添加到栈中
import requests
import re
# 设置请求头
header = {
"User-Agent": "Mozilla/5.0 (Windows NT 10.0;
Win64; x64) AppleWebKit/537.36 (KHTML,
like Gecko) Chrome/65.0.3325.181 Safari/537.36"}
def getHtml(url):
'''
获取html源码
:param url:
:return:
'''
response = requests.get(url,headers=header)
return response.content.decode("utf-8",errors="ignore")
def getUrl(url):
'''
生成url链接池
:param url: 链接
:return: 列表
'''
# 获取html源码
html = getHtml(url)
# print(html)
# 清洗出新的url
'''
<a class="title-content" href="https://www.baidu.com/s?
cl=3≈rsv_idx=2" target="_blank">世界杯八强出炉</a>
'''
urlre = '<a .*href="(https?://.*?)".*'
urlsList = re.findall(urlre,html)
return urlsList
def getInfo(url):
'''
爬取数据
:param url:
:return:
'''
pass
def stackSpider(depth):
'''
栈实现深度爬取数据
:param depth: 深度
:return:
'''
while len(urlList) > 0:
# 从栈中取出一个url,先进后出
url = urlList.pop()
if depthDict[url] <= depth:
print("\t\t\t" * depthDict[url],
"抓取了第%d层:%s" % (depthDict[url], url))
# 要实现的爬虫,爬取数据
# getInfo(url)
# 生成子类url链接池
sonUrlLisr = getUrl(url)
# 遍历子类url链接池
for newurl in sonUrlLisr:
if newurl not in depthDict:
depthDict[newurl] = depthDict[url] +1
#深度加1,添加到栈中
urlList.append(newurl)
if __name__ == '__main__':
#设置种子链接
startUrl = "https://www.baidu.com/s?wd=世界杯"
#用队列实现广度
urlList = []
urlList.append(startUrl)
# 设置爬取深度,设置爬取深度为4
depthLimit = 3
depthDict = {}
depthDict[startUrl] = 1
# 广度爬取
stackSpider(depthLimit)
二、广度优先遍历策略
广度优先遍历策略的基本思路是,将新下载网页中发现的链接直接追加到待抓取URL队列的末尾。也就是指网络爬虫会先抓取起始网页中链接的所有网页,然后再选择其中的一个链接网页,继续抓取在此网页中链接的所有网页。还是以上面的图为例:遍历路径:A-B-C-D-E-F-G-H-I
1、队列实现流程:
a.获取种子链接 b.用队列实现广度,设置爬取深度 c.判断队列是否为空 d.从队列拿出一个url e.判断是否超出深度 f.爬取数据 g.生成子类url链接池 h.遍历子链接池,去重 i.深度加1,添加到队列中
'''
a.获取种子链接 b.用队列实现广度,设置爬取深度 c.判断队列是否为空
d.从队列拿出一个url e.判断是否超出深度 f.爬取数据
g.生成子类url链接池 h.遍历子链接池,去重 i.深度加1,添加到队列中
'''
import requests
import re
# 设置请求头
header = {
"User-Agent": "Mozilla/5.0 (Windows NT 10.0;
Win64; x64) AppleWebKit/537.36 (KHTML,
like Gecko) Chrome/65.0.3325.181 Safari/537.36"}
def getHtml(url):
'''
获取html源码
:param url:
:return:
'''
response = requests.get(url,headers=header)
return response.content.decode("utf-8",errors="ignore")
def getUrl(url):
'''
生成url链接池
:param url: 链接
:return: 列表
'''
# 获取html源码
html = getHtml(url)
# print(html)
# 清洗出新的url
'''
<a class="title-content" href="https://www.baidu.com/s?
cl=3≈rsv_idx=2" target="_blank">世界杯八强出炉</a>
'''
urlre = '<a .*href="(https?://.*?)".*'
urlsList = re.findall(urlre,html)
return urlsList
def getInfo(url):
'''
爬取数据
:param url:
:return:
'''
pass
def vastSpider(depth):
'''
队列实现广度爬取数据
:param depth: 深度
:return:
'''
while len(urlList) > 0:
# 从队列中取出一个url
url = urlList.pop(0)
if depthDict[url] <= depth:
print("\t\t\t" * depthDict[url],
"抓取了第%d层:%s" % (depthDict[url], url))
# 要实现的爬虫,爬取数据
# getInfo(url)
# 生成子类url链接池
sonUrlLisr = getUrl(url)
# 遍历子类url链接池
for newurl in sonUrlLisr:
#去重
if newurl not in depthDict:
depthDict[newurl] = depthDict[url] +1
#深度加1,添加到队列中
urlList.append(newurl)
if __name__ == '__main__':
#设置种子链接
startUrl = "https://www.baidu.com/s?wd=世界杯"
#用队列实现广度
urlList = []
urlList.append(startUrl)
# 设置爬取深度,设置爬取深度为4
depthLimit = 2
depthDict = {}
depthDict[startUrl] = 1
# 广度爬取
vastSpider(depthLimit)
后记
【后记】为了让大家能够轻松学编程,我创建了一个公众号【轻松学编程】,里面有让你快速学会编程的文章,当然也有一些干货提高你的编程水平,也有一些编程项目适合做一些课程设计等课题。
也可加我微信【1257309054】,拉你进群,大家一起交流学习。
如果文章对您有帮助,请我喝杯咖啡吧!
公众号


关注我,我们一起成长~~
python爬虫爬取策略的更多相关文章
- Python爬虫 - 爬取百度html代码前200行
Python爬虫 - 爬取百度html代码前200行 - 改进版, 增加了对字符串的.strip()处理 源代码如下: # 改进版, 增加了 .strip()方法的使用 # coding=utf-8 ...
- 用Python爬虫爬取广州大学教务系统的成绩(内网访问)
用Python爬虫爬取广州大学教务系统的成绩(内网访问) 在进行爬取前,首先要了解: 1.什么是CSS选择器? 每一条css样式定义由两部分组成,形式如下: [code] 选择器{样式} [/code ...
- 使用Python爬虫爬取网络美女图片
代码地址如下:http://www.demodashi.com/demo/13500.html 准备工作 安装python3.6 略 安装requests库(用于请求静态页面) pip install ...
- Python爬虫|爬取喜马拉雅音频
"GOOD Python爬虫|爬取喜马拉雅音频 喜马拉雅是知名的专业的音频分享平台,用户规模突破4.8亿,汇集了有声小说,有声读物,儿童睡前故事,相声小品等数亿条音频,成为国内发展最快.规模 ...
- python爬虫爬取内容中,-xa0,-u3000的含义
python爬虫爬取内容中,-xa0,-u3000的含义 - CSDN博客 https://blog.csdn.net/aiwuzhi12/article/details/54866310
- Python爬虫爬取全书网小说,程序源码+程序详细分析
Python爬虫爬取全书网小说教程 第一步:打开谷歌浏览器,搜索全书网,然后再点击你想下载的小说,进入图一页面后点击F12选择Network,如果没有内容按F5刷新一下 点击Network之后出现如下 ...
- python爬虫—爬取英文名以及正则表达式的介绍
python爬虫—爬取英文名以及正则表达式的介绍 爬取英文名: 一. 爬虫模块详细设计 (1)整体思路 对于本次爬取英文名数据的爬虫实现,我的思路是先将A-Z所有英文名的连接爬取出来,保存在一个cs ...
- 一个简单的python爬虫,爬取知乎
一个简单的python爬虫,爬取知乎 主要实现 爬取一个收藏夹 里 所有问题答案下的 图片 文字信息暂未收录,可自行实现,比图片更简单 具体代码里有详细注释,请自行阅读 项目源码: # -*- cod ...
- python爬虫-爬取百度图片
python爬虫-爬取百度图片(转) #!/usr/bin/python# coding=utf-8# 作者 :Y0010026# 创建时间 :2018/12/16 16:16# 文件 :spider ...
随机推荐
- C++ 构造函数 隐式转换 深度探索,由‘类对象的赋值操作是否有可能调用到构造函数’该实验现象引发
Test1 /** Ques: 类对象的赋值操作是否有可能调用到构造函数 ? **/ class mystring { char str[100]; public: mystring() //myst ...
- 033 01 Android 零基础入门 01 Java基础语法 03 Java运算符 13 运算符和表达式知识点总结
033 01 Android 零基础入门 01 Java基础语法 03 Java运算符 13 运算符和表达式知识点总结 本文知识点:运算符和表达式知识点总结 前面学习的几篇文都是运算符和表达式相关的知 ...
- spring-boot-route(九)整合JPA操作数据库
单调的增删改查让越来越多的程序员感到乏味,这时候就出现了很多优秀的框架,完成了对增删改查操作的封装,只需要简单配置,无需书写任何sql,就可以完成增删改查.这里比较推荐的是Spring Data Jp ...
- Appium自动化测试之环境安装
安装前准备: Python 安装包下载 选择想要想在的python包Node-v6.11.2下载安卓SDK下载appium_forwindows下载 以上四个文件下载下来后,分别解压安装, ...
- Dockerize ASP。净样板项目
Get the source code from the Github repository. 介绍 在这篇文章中,我将一步步地向你展示如何在Docker上运行ABP模块零核心模板.然后,我们将讨论其 ...
- 洛谷P1450 [HAOI2008]硬币购物 背包+容斥
无限背包+容斥? 观察数据范围,可重背包无法通过,假设没有数量限制,利用用无限背包 进行预处理,因为实际硬币数有限,考虑减掉多加的部分 如何减?利用容斥原理,减掉不符合第一枚硬币数的,第二枚,依次类推 ...
- Mac Idea你不知道的秘密
导读 工欲善其事必先利其器,日常工作中,知道这些Idea技巧,可以极大提高日常开发效率. 技巧篇 以下内容不分先后顺序 显示类中的方法 搜索 搜索方法,按两下shift 文字搜索,control+sh ...
- centos 7 安装docker 常用指令
什么是docker l 使用最广泛的开源容器引擎 l 一种操作系统级的虚拟化技术 l 依赖于Linux内核特性:Namespace和Cgroups l 一个简单的应用程序打包工具 docker ...
- 字节码暴力破解censum(老版本)
声明 事先声明,本文仅提供破解方法以供个人及读者们学习Java字节码,不提倡破解程序. 本文是个人学习掘金小册张师傅的<JVM字节码从入门到精通>后,作为一个实践的记录,并无恶意. 关于c ...
- 扩展、接管MVC都不会,还说会Spring Boot?
持续原创输出,点击上方蓝字关注我 目录 前言 Spring Boot 版本 如何扩展MVC? 如何自定义一个拦截器? 什么都不配置为什么依然能运行MVC相关的功能? 如何全面接管MVC?[不推荐] 为 ...