通过 ID索引号 遍历目标网页里链接的所有网页

使用的系统:Windows 10 64位

Python 语言版本:Python 2.7.10 V

使用的编程 Python 的集成开发环境:PyCharm 2016 04

我使用的 urllib 的版本:urllib2

注意: 我没这里使用的是 Python2 ,而不是Python3


一 . 前言

通过之前两节(爬取一个网页 的网络爬虫解决爬取到的网页显示时乱码问题),我们终于完成了最终的 download() 函数。

并且上一节,我们通过网站地图解析里面的URL的方式爬取了目标站点的所有网页。这一节 我再介绍一种方法来爬取一个网页里面所有的链接网页。

简单的说:就是利用一些网站结构的弱点,更加轻松地访问所有内容。


二 . 原理

对于一些网站,它里面的链接网址是由索引号设定的。举个例子:

下面这些网页的URL是同一个站点的:

http://example.webscraping.com/view/Afghanistan-1

http://example.webscraping.com/view/Aland-Islands-2

http://example.webscraping.com/view/Albania-3

它们之间有规律,前面(http://example.webscraping.com/view/)都是一样的,而后面是ID索引号。这样我们就可以使用这样的规律来对这个站点进行下载操作。

一般情况下,Web服务器会忽略ID索引号跟随的这个字符串,(这个字符串叫着:页面别名),只使用ID来匹配数据库中的相关记录。也就是说:http://example.webscraping.com/view/1 这个网址也可以使用,得到的结果和访问 http://example.webscraping.com/view/Afghanistan-1 是一样的。

所以,我们只使用ID索引号是行得通的,网页依然可以成功加载。

三 . 代码

现在我们将来忽略页面别名,只遍历ID来下载这个站点(http://example.webscraping.com/view/)里面的所有网页。

简单的程序如下。这段代码我对ID索引号进行遍历,直到出现下载错误时停止,(我们现在就假设此时为:到达最后一个国家的页面。)

import itertools

def traverse_id():
for page in itertools.count(1):
url = 'http://example.webscraping.com/view/%d' % page
html = download(url)
if html is None:
break
else:
# success - can scrape the result
pass

download() 函数 完整的代码在这篇博客的最下面:http://blog.csdn.net/github_35160620/article/details/52529435

四 . 运行:

先启动 Python27 的终端交互界面,执行下面的命令:

> C:\Python27\pytho
n.exe -i 1-4-3-id-traverse.py

执行:

>>> traverse_id()

输出:

Downloading:  http://example.webscraping.com/view/1
Downloading: http://example.webscraping.com/view/2
Downloading: http://example.webscraping.com/view/3
Downloading: http://example.webscraping.com/view/4
Downloading: http://example.webscraping.com/view/5

上面这段代码是存在一个缺陷的:可能目标站点的某些ID索引号的网页已经被删除了,就是目标站点数据库的ID索引号不是连续的。那么,上面这段程序访问到目标站点的某个间断点,爬虫就会立即退出。所以我们需要对上面的代码进行升级。


五 . 代码升级:

下面的代码是升级后的代码。程序会在连续发生多次下载错误后才会退出程序。


import itertools

# maximum number of consecutive download errors allowed
max_errors = 5
# current number of consecutive download errors
num_errors = 0 for page in itertools.count(1):
url = 'http://example.webscraping.com/view/%d' % page
html = download(url)
if html is None:
# received an error trying to download this webpage
num_errors += 1
if num_errors == max_errors:
# reached maximum number of
# consecutive errors so exit
break
else:
# success - can scrape the result
# ...
num_errors = 0

上面这个程序就是实现了一个:如果连续5次下载错误才停止遍历 的功能。这样做就可以很大程度上降低了遇到间断点时,过早停止遍历的风险。

搞定



总结:

在爬取网站时,使用遍历ID索引号是一个很便捷的方法。但是:

1 . 一些网站会检查页面别名是否满足预期,如果不是,则会返回 404 Not Found 错误。

2 . 另一些网站则会使用非连接的多位数字作为ID,或者根本就不使用数值作为ID,此时遍历就难以发挥其作用了。

所以在爬取网站的时候,使用的方法要根据网站的特点来选择使用。

下一节,我介绍在一个网页中使用正则表达式来得到这个网页中所有的链接URL

Python 网络爬虫 008 (编程) 通过ID索引号遍历目标网页里链接的所有网页的更多相关文章

  1. Python 网络爬虫 007 (编程) 通过网站地图爬取目标站点的所有网页

    通过网站地图爬取目标站点的所有网页 使用的系统:Windows 10 64位 Python 语言版本:Python 2.7.10 V 使用的编程 Python 的集成开发环境:PyCharm 2016 ...

  2. Python 网络爬虫 006 (编程) 解决下载(或叫:爬取)到的网页乱码问题

    解决下载(或叫:爬取)到的网页乱码问题 使用的系统:Windows 10 64位 Python 语言版本:Python 2.7.10 V 使用的编程 Python 的集成开发环境:PyCharm 20 ...

  3. Python 网络爬虫 004 (编程) 如何编写一个网络爬虫,来下载(或叫:爬取)一个站点里的所有网页

    爬取目标站点里所有的网页 使用的系统:Windows 10 64位 Python语言版本:Python 3.5.0 V 使用的编程Python的集成开发环境:PyCharm 2016 04 一 . 首 ...

  4. Python 网络爬虫 009 (编程) 通过正则表达式来获取一个网页中的所有的URL链接,并下载这些URL链接的源代码

    通过 正则表达式 来获取一个网页中的所有的 URL链接,并下载这些 URL链接 的源代码 使用的系统:Windows 10 64位 Python 语言版本:Python 2.7.10 V 使用的编程 ...

  5. Python 网络爬虫 005 (编程) 如何编写一个可以 下载(或叫:爬取)一个网页 的网络爬虫

    如何编写一个可以 下载(或叫:爬取)一个网页 的网络爬虫 使用的系统:Windows 10 64位 Python 语言版本:Python 2.7.10 V 使用的编程 Python 的集成开发环境:P ...

  6. Python网络爬虫

    http://blog.csdn.net/pi9nc/article/details/9734437 一.网络爬虫的定义 网络爬虫,即Web Spider,是一个很形象的名字. 把互联网比喻成一个蜘蛛 ...

  7. 如何利用Python网络爬虫爬取微信朋友圈动态--附代码(下)

    前天给大家分享了如何利用Python网络爬虫爬取微信朋友圈数据的上篇(理论篇),今天给大家分享一下代码实现(实战篇),接着上篇往下继续深入. 一.代码实现 1.修改Scrapy项目中的items.py ...

  8. 《精通python网络爬虫》笔记

    <精通python网络爬虫>韦玮 著 目录结构 第一章 什么是网络爬虫 第二章 爬虫技能概览 第三章 爬虫实现原理与实现技术 第四章 Urllib库与URLError异常处理 第五章 正则 ...

  9. Python网络爬虫与信息提取

    1.Requests库入门 Requests安装 用管理员身份打开命令提示符: pip install requests 测试:打开IDLE: >>> import requests ...

随机推荐

  1. Sublime Text:学习资源篇

    官网 http://www.sublimetext.com/ 插件 https://packagecontrol.io 教程 Sublime Text 全程指南 Sublime Text 2 入门及技 ...

  2. 2017.12.15 python资料,转存一下。

    最近GD项目三个型号都是用Python做批量烧录和测试的.marking一下,,虽然自己不会写. 1.入门阶段 The Python Tutorial(https://docs.python.org/ ...

  3. Smarty的模板中不允许PHP的代码?

    /****************************************************************************** * Smarty的模板中不允许PHP的代 ...

  4. Linux下anaconda的安装

    http://peteryuan.net/use-anaconda/ http://www.jianshu.com/p/03d757283339

  5. inux中,关于多路复用的使用,有三种不同的API,select、poll和epoll

    inux中,关于多路复用的使用,有三种不同的API,select.poll和epoll https://www.cnblogs.com/yearsj/p/9647135.html 在上一篇博文中提到了 ...

  6. MySQL实战 | 02-MySQL 如何恢复到半个月内任意一秒的状态?

    原文链接:MySQL是如何做到可以恢复到任意一秒状态的? 看到这个题目是不是觉得数据库再也不用担心服务器 crash 了? 那我们需要学习为什么可以这么做?以及如何做? 即为什么可以恢复到任意时间点? ...

  7. CentOS X64上64位Oracle 11gR2 静默安装

    CentOS 6.2 X64上64位Oracle 11gR2 静默安装 www.linuxidc.com/Linux/2012-03/56606p4.htm HP-UX静默安装oracle11g过程 ...

  8. Directx 9 VS2015环境搭建

    安装好Directx9 sdk和vs2015后 打开vs,新建项目 --> c++项目  -->win32控制台应用程序-->空项目 创建项目后,右键项目属性, 包含目录 D:\Pr ...

  9. 程序员转项目管理之考证PMP

    转行项目经历是IT人的出路之一,最近身边有好几个同事都在备考PMP,从个人未来职业发展来看,如果你有将来转行项目管理的想法,应该去尝试考一下PMP. PMP(Project Management Pr ...

  10. 终于解决了一个Win7 下 VS 编译的问题,困扰了我好几个月

    用 Win7 一年多了,一直在这个环境下编程,其他都挺好,就是有个问题非常恶心,在VS下编译经常出现进程正在使用,无法覆盖的错误,这个问题我记得博问中以前也有其他人遇到过,也没有解决掉.此问题困扰了我 ...