Python 开发轻量级爬虫

(imooc总结08--爬虫实例--分析目标)

怎么开发一个爬虫?开发一个爬虫包含哪些步骤呢?

1.确定要抓取得目标,即抓取哪些网站的哪些网页的哪部分数据。
本实例确定抓取Python百度百科词条页面以及相关词条页面的标题和简介。 2.分析这个目标,即需要确定抓取这些网站数据的策略。
有三部分需要分析。
1)需要分析这些目标页面的url格式,用来限定我们要抓取页面的范围。
如果这个范围不进行限定的话,我们的爬虫就会抓取互联网上很多不相关的网页,造成资源的浪费。
2)我们需要分析要抓取得数据格式。
在本实例中就要分析,每一个词条页面中标题和简介。这两个数据在标签中的格式。
3)分析页面的编码。
在我们代码的解析器这部分,需要指定网页的编码,才能够正确的解析。在分析完目标格式以后,
我们进行代码的编写。在代码的解析器这部分,就需要使用到前面分析目标这个步骤所得到的抓取策略结果。 3.执行爬虫,进行数据的抓取。 从这些步骤中,我们可以看到分析目标,即制定抓取目标数据的策略是非常重要的一部分。打开我们爬虫的
入口页,也就是python百度百科词条页面。 我们来分析一下抓取这个页面以及相关页面的数据,它的抓取策略是什么?

首先这个页面的url是 http://baike.baidu.com/view/21087.htm

我们来看一下,相关词条页面的url是什么形式?
在这个页面中,任意的词条之上,右键审查元素,可以看到都是/view/xxxx.htm,这是一个不完整的url,
在代码中需要在其前面加上baike.baidu.com,把它拼成一个完整的url,才能进行后续的访问。这就是我们得
到的url格式。
然后,我们来看一下要抓取的标题和简介数据标签格式?
首先我们在python标题上右键审查元素?简介上右键?查看编码格式?通过右键审查元素这种方式,我们就
得到了抓取python以及相关词条网页的url格式、数据格式、网页编码,即得到了抓取这些网站数据的抓取策略。 目标:百度百科python词条相关词条网页 – 标题和简介

入口页: http://baike.baidu.com/view/21087.htm

url格式:
词条页面url:/view/125370.htm
数据格式:
标题:
<dd class="lemmaWgt-lemmaTitle-title">
<h1>Python</h1>
</dd>
简介:
<div class="lemma-summary" label-module="lemmaSummary"></div>
页面编码:utf-8
以上就是我们获得抓取python和相关词条网页的抓取策略,这里需要提醒大家的是,每一个互联网的网站
都会不停升级它的格式。作为一个定向爬虫来说,如果一个网站的格式发生了升级,我们的抓取策略随即升
级。
本实例给出的代码,如果运行出错的话可能是网站的格式发生了升级,我们需要打开目标网站,重新制定新
的策略,修改代码后才能够重新运行。 调度程序
编写实例代码,爬取百度百科python词条页面以及相关1000个页面数据。
创建一个 baike_spider来存放python代码,创建所需要的模块。 创建spider_main.py -- 爬虫的总调度程序
url_manager -- url管理器
html_downloader – 下载器
html_parser – 解析器
html_outputer
– 本代码将所有搜集好的数据写出到一个html页面中,打开一个页面就可以看到所有已经爬取好的数据 spider_main.py
爬虫总调度程序,会以一个入口的url作为参数来爬取所有的相关的页面。
编写main函数,在main函数中,设置下要爬取的入口url http://baike.baidu.com/view/21087.htm
创建一个obj_spider = SpiderMain() 首先我们将入口url添加到url管理器,url管理器中已经有了待爬取的url。
当url管理器已经有了待爬取的url的时候,获取一个待爬取的url。
获取之后,我们启动一个下载器下载这个页面, 结果存储在html_cont中。
下载好了页面。我们调用解析器解析这个页面数据,得到新的url列表和新的数据。 解析器
我们传入两个参数,当前爬取的url和下载好的页面数据。
解析出来的两个数据 url和数据,进行分别处理。
将url添加进url管理器,将数据输出并收集。
这样如果有一个待爬取的url,我们的爬虫就能够爬取所有的url。
最后调用输出收集好的数据。

Python 开发轻量级爬虫08的更多相关文章

  1. Python 开发轻量级爬虫07

    Python 开发轻量级爬虫 (imooc总结07--网页解析器BeautifulSoup) BeautifulSoup下载和安装 使用pip install 安装:在命令行cmd之后输入,pip i ...

  2. Python 开发轻量级爬虫06

    Python 开发轻量级爬虫 (imooc总结06--网页解析器) 介绍网页解析器 将互联网的网页获取到本地以后,我们需要对它们进行解析才能够提取出我们需要的内容. 也就是说网页解析器是从网页中提取有 ...

  3. Python 开发轻量级爬虫05

    Python 开发轻量级爬虫 (imooc总结05--网页下载器) 介绍网页下载器 网页下载器是将互联网上url对应的网页下载到本地的工具.因为将网页下载到本地才能进行后续的分析处理,可以说网页下载器 ...

  4. Python 开发轻量级爬虫04

    Python 开发轻量级爬虫 (imooc总结04--url管理器) 介绍抓取URL管理器 url管理器用来管理待抓取url集合和已抓取url集合. 这里有一个问题,遇到一个url,我们就抓取它的内容 ...

  5. Python 开发轻量级爬虫03

    Python 开发轻量级爬虫 (imooc总结03--简单的爬虫架构) 现在来看一下一个简单的爬虫架构. 要实现一个简单的爬虫,有哪些方面需要考虑呢? 首先需要一个爬虫调度端,来启动爬虫.停止爬虫.监 ...

  6. Python 开发轻量级爬虫02

    Python 开发轻量级爬虫 (imooc总结02--爬虫简介) 爬虫简介 首先爬虫是什么?它是一段自动抓取互联网信息的程序. 什么意思呢? 互联网由各种各样的的网页组成,每一个网页都有对应的url, ...

  7. Python 开发轻量级爬虫01

    Python 开发轻量级爬虫 (imooc总结01--课程目标) 课程目标:掌握开发轻量级爬虫 为什么说是轻量级的呢?因为一个复杂的爬虫需要考虑的问题场景非常多,比如有些网页需要用户登录了以后才能够访 ...

  8. Python开发轻量级爬虫

    这两天自学了python写爬虫,总结一下: 开发目的:抓取百度百科python词条页面的1000个网页 设计思路: 1,了解简单的爬虫架构: 2,动态的执行流程: 3,各部分的实现: URL管理器:p ...

  9. Python开发简单爬虫 - 慕课网

    课程链接:Python开发简单爬虫 环境搭建: Eclipse+PyDev配置搭建Python开发环境 Python入门基础教程 用Eclipse编写Python程序   课程目录 第1章 课程介绍 ...

随机推荐

  1. python 环境搭建

    python下载地址: 进入https://www.python.org/download/releases/3.3.4/,下载Windows X86-64 MSI Installer (3.3.4) ...

  2. 【USACO 3.1】Humble Numbers(给定质因子组成的第n大的数)

    题意:给你k(≤100)个质数,求质因子只包含它们的第n大的数. 题解: 方法一:维护一个数组,一开始只有给出的质数在里面,用每个质数去乘以数组中每个数,然后归并排序,长度保留到n,一轮接一轮,直到乘 ...

  3. 解决:Linux版百度云客户端 BCloud网络错误 问题

    国内很多云盘渐渐停止服务支持,如新浪.华为.115.360等... 强大的百度云,你会继续免费让大家使用吗? 今天在Linux上使用了liulang的BCloud百度云客户端,登陆之后不显示主页,什么 ...

  4. Webpack--自学笔记

    原文--http://webpack.github.io/docs/tutorials/getting-started/ 什么是webpack? webpack是一个模块打包器.webpack把模块( ...

  5. css-css权威指南学习笔记5

    第六章 文本属性 1.text-indent只能作用于块级元素(如p或inline-block或block后的span/a/i等). 2.text-align只能作用于块级元素(如p或inline-b ...

  6. ubuntu16.04装MatConvNet

    按matconvnet官网上的步骤来,编译代码的时候会发现编译失败. 参考这条issues 以下是我的解决方案: I use ubuntu16.04 with x64 architecture. I ...

  7. matlab进阶:常用功能的实现,常用函数的说明

    常用功能的实现 获取当前脚本所在目录 current_script_dir = fileparts(mfilename('fullpath')); % 结尾不带'/' 常用函数的说明 bsxfun m ...

  8. 用java下载hdfs文件报NullPointerException

    用fs.copyToLocalFile( hdfsPath,localPath);下载hdfs的文件会报NullPointerException,具体报错为: java.lang.NullPointe ...

  9. 用Python制作新浪微博爬虫

    早上刷空间发现最近好多人过生日诶~ 仔细想想,好像4月份的时候也是特别多人过生日[比如我 那么每个人生日的月份有什么分布规律呢...突然想写个小程序统计一下 最简单易得的生日数据库大概就是新浪微博了: ...

  10. Python学习笔记——列表

    1.创建列表类型数据并给其赋值 >>> aList = [123,'abc',4.56,['inner','list'],7-9j] >>> aList [123, ...