零基础爬虫----python爬取豆瓣电影top250的信息(转)
今天利用xpath写了一个小爬虫,比较适合一些爬虫新手来学习。话不多说,开始今天的正题,我会利用一个案例来介绍下xpath如何对网页进行解析的,以及如何对信息进行提取的。
python环境:python3.5
先看看网页的样子

我们下面将要对电影的名字、链接、评分、评价人数和一句话描述这些信息进行提取
1、检查并复制电影名字的xPath信息
电影《肖申克的救赎》的xPath信息如下:
//*[@id=”content”]/div/div[1]/ol/li[1]/div/div[2]/div[1]/a/span[1]
按照爬虫的代码套路来一波
from lxml import etree
import requests def get_1_name():
'''
爬取豆瓣top250电影的第1个电影的名字
:return:
'''
url = 'https://movie.douban.com/top250' # #豆瓣top250网址
data = requests.get(url).text # #得到html内容
s = etree.HTML(data) # #etree.HTML用来解析html内容
xpath_test = '//*[@id="content"]/div/div[1]/ol/li[1]/div/div[2]/div[1]/a/span[1]'+'/text()' # #谷歌浏览器中选中文字,右键检查,复制xpath
title = s.xpath(xpath_test)[0] # #列表只有一个元素
print(title)
输出结果:
第六行代码最后加[0],是因为不加的话,返回的则会是一个列表,不好看。
2、对同一页的不同电影名字进行提取
根据《肖申克的救赎》同方法对《霸王别姬》、《这个杀手不太冷》和《阿甘正传》的xPath信息比较:
比较可以发现电影名的xPath信息仅仅li后面的序号不一样,并且和电影名的序号一样,所以去掉序号以后,就可以得到通用的xPath信息
//*[@id="content"]/div/div[1]/ol/li/div/div[2]/div[1]/a/span[1]
接下来我们把这一页的电影名字个爬下来
from lxml import etree
import requests
url = 'https://movie.douban.com/top250'
data = requests.get(url).text
s = etree.HTML(data)
title = s.xpath('//*[@id="content"]/div/div[1]/ol/li/div/div[2]/div[1]/a/span[1]/text()')
for movies in title:
print(movies)
输出结果
下面用类似的方法对电影评分进行提取
from lxml import etree
import requests
url = 'https://movie.douban.com/top250'
data = requests.get(url).text
s = etree.HTML(data)
score = s.xpath('//*[@id="content"]/div/div[1]/ol/li/div/div[2]/div[2]/div/span[2]/text()')
for i in score:
print(i)
输出结果为
接下来要做的是输出电影及对应的评分
from lxml import etree
import requests
url = 'https://movie.douban.com/top250'
data = requests.get(url).text
s = etree.HTML(data)
file = s.xpath('//*[@id="content"]/div/div[1]/ol/li/div/div[2]/div[1]/a/span[1]/text()')
score = s.xpath('//*[@id="content"]/div/div[1]/ol/li/div/div[2]/div[2]/div/span[2]/text()')
for i in range(25):
print("{} {}".format(file[i],score[i]))
输出结果为:
这里我们默认电影名字以及评分都是完整的、正确的信息,这种默认一般情况下是没问题的。但其实是有缺陷的。如果我们少爬了或者多爬了信息,就会发生匹配的错误,那么该怎么避免这种错误呢?
仔细思考下,发现我们若是以电影名字为单位,分别获取对应的信息,那么匹配肯定完全正确。
电影名字的标签肯定在这部电影的框架内,于是我们从电影名字的标签往上找,发现覆盖整部电影的标签,把xPath信息复制下来
//*[@id="content"]/div/div[1]/ol/li[1]

然后我们将整部电影和其他信息的xPath信息进行比较
//*[@id="content"]/div/div[1]/ol/li[1]
//*[@id="content"]/div/div[1]/ol/li[1]/div/div[2]/div[1]/a/span[1]
//*[@id="content"]/div/div[1]/ol/li[2]/div/div[2]/div[2]/div/span[2]
不难发现电影名和评分的前半部分与整部电影的前半部分是一样的。那我们就可以这样写xPath的方式来定位信息:
file = s.xpath('//*[@id="content"]/div/div[1]/ol/li[1]')
 movies_name = div.xpath('./div/div[2]/div[1]/a/span[1]/text()')
 movies_score = div.xpath('./div/div[2]/div[2]/div/span[2]/text()')
在实际的代码中体验一下
from lxml import etree
import requests
url = 'https://movie.douban.com/top250'
data = requests.get(url).text
s = etree.HTML(data)
file = s.xpath('//*[@id="content"]/div/div[1]/ol/li[1]')
for div in file:
movies_name = div.xpath('./div/div[2]/div[1]/a/span[1]/text()')[0]
movies_score = div.xpath('./div/div[2]/div[2]/div/span[2]/text()')[0]
print("{} {}".format(movies_name,movies_score))
输出结果为

上面我们爬取了一部电影的信息,那么怎么爬取这一页的呢?很简单把li后面的[1]去掉就可以了。来看看新的代码
from lxml import etree
import requests
url = 'https://movie.douban.com/top250'
data = requests.get(url).text
s = etree.HTML(data)
file = s.xpath('//*[@id="content"]/div/div[1]/ol/li')
for div in file:
movies_name = div.xpath('./div/div[2]/div[1]/a/span[1]/text()')[0]
movies_score = div.xpath('./div/div[2]/div[2]/div/span[2]/text()')[0]
print("{} {}".format(movies_name,movies_score))
结果为:
其他信息的提取与之类似,就不在细讲了,代码跑一遍
from lxml import etree
import requests
url = 'https://movie.douban.com/top250'
data = requests.get(url).text
s = etree.HTML(data)
file = s.xpath('//*[@id="content"]/div/div[1]/ol/li')
for div in file:
movies_name = div.xpath('./div/div[2]/div[1]/a/span[1]/text()')[0]
movies_score = div.xpath('./div/div[2]/div[2]/div/span[2]/text()')[0]
movies_href = div.xpath('./div/div[2]/div[1]/a/@href')[0]
movies_number = div.xpath('./div/div[2]/div[2]/div/span[4]/text()')[0].strip("(").strip( ).strip(")")
movie_scrible = div.xpath('./div/div[2]/div[2]/p[2]/span/text()')
print("{} {} {} {} {}".format(movies_name,movies_href,movies_score,movies_number,movie_scrible[0]))
结果为:
这样我们就对第一页的信息进行了提取,那么我么怎么把所有的页都提取呢?比较一下不同页的URL
第一页:https://movie.douban.com/top250?start=0
第二页:https://movie.douban.com/top250?start=25
第三页:https://movie.douban.com/top250?start=50
第四页:https://movie.douban.com/top250?start=75
......
URL的变化规律很简单,只是start=()的数字不一样,以25为单位递增,所以写个循环就可以了,下面把整个代码跑一下,所有25页的信息全部提取下来。
from lxml import etree
import requests
import time
for a in range(10):
url = 'https://movie.douban.com/top250?start={}'.format(a*25)
data = requests.get(url).text
# print(data)
s = etree.HTML(data)
file = s.xpath('//*[@id="content"]/div/div[1]/ol/li')
for div in file:
movies_name = div.xpath('./div/div[2]/div[1]/a/span[1]/text()')[0]
movies_score = div.xpath('./div/div[2]/div[2]/div/span[2]/text()')[0]
movies_href = div.xpath('./div/div[2]/div[1]/a/@href')[0]
movies_number = div.xpath('./div/div[2]/div[2]/div/span[4]/text()')[0].strip("(").strip( ).strip(")")
movie_scrible = div.xpath('./div/div[2]/div[2]/p[2]/span/text()')
# time.sleep(1)
if len(movie_scrible)>0:
print("{} {} {} {} {}".format(movies_name,movies_href,movies_score,movies_number,movie_scrible[0]))
else:
print("{} {} {} {}".format(movies_name,movies_href,movies_score,movies_number))
结果为
这只是一部分截图,整体的包含了250部电影。
注:这里加了个if语句,是因为发现有的电影没有一句话描述。Ok了,这个爬虫很简单,也是我刚开始学习xPath,适合新手学习
--------------------- 
作者:云南省高校数据化运营管理工程研究中心 
来源:CSDN 
原文:https://blog.csdn.net/m0_37788308/article/details/80378042 
版权声明:本文为博主原创文章,转载请附上博文链接!
零基础爬虫----python爬取豆瓣电影top250的信息(转)的更多相关文章
- 一起学爬虫——通过爬取豆瓣电影top250学习requests库的使用
		学习一门技术最快的方式是做项目,在做项目的过程中对相关的技术查漏补缺. 本文通过爬取豆瓣top250电影学习python requests的使用. 1.准备工作 在pycharm中安装request库 ... 
- python爬取豆瓣电影Top250(附完整源代码)
		初学爬虫,学习一下三方库的使用以及简单静态网页的分析.就跟着视频写了一个爬取豆瓣Top250排行榜的爬虫. 网页分析 我个人感觉写爬虫最重要的就是分析网页,找到网页的规律,找到自己需要内容所在的地方, ... 
- Python 爬取豆瓣电影Top250排行榜,爬虫初试
		from bs4 import BeautifulSoup import openpyxl import re import urllib.request import urllib.error # ... 
- Python爬取豆瓣电影top
		Python爬取豆瓣电影top250 下面以四种方法去解析数据,前面三种以插件库来解析,第四种以正则表达式去解析. xpath pyquery beaufifulsoup re 爬取信息:名称 评分 ... 
- Python爬虫入门:爬取豆瓣电影TOP250
		一个很简单的爬虫. 从这里学习的,解释的挺好的:https://xlzd.me/2015/12/16/python-crawler-03 分享写这个代码用到了的学习的链接: BeautifulSoup ... 
- python 爬虫&爬取豆瓣电影top250
		爬取豆瓣电影top250from urllib.request import * #导入所有的request,urllib相当于一个文件夹,用到它里面的方法requestfrom lxml impor ... 
- scrapy爬虫框架教程(二)-- 爬取豆瓣电影TOP250
		scrapy爬虫框架教程(二)-- 爬取豆瓣电影TOP250 前言 经过上一篇教程我们已经大致了解了Scrapy的基本情况,并写了一个简单的小demo.这次我会以爬取豆瓣电影TOP250为例进一步为大 ... 
- 利用Python爬取豆瓣电影
		目标:使用Python爬取豆瓣电影并保存MongoDB数据库中 我们先来看一下通过浏览器的方式来筛选某些特定的电影: 我们把URL来复制出来分析分析: https://movie.douban.com ... 
- 第一个nodejs爬虫:爬取豆瓣电影图片
		第一个nodejs爬虫:爬取豆瓣电影图片存入本地: 首先在命令行下 npm install request cheerio express -save; 代码: var http = require( ... 
随机推荐
- Java EE 课程目标
			对于自己在本门课程的目标,首先是跟进老师的课程进度,努力完成老师下达的个人任务,以及需要与同伴一起合力完成的团队任务:其次是在课上课下的学习过程中,希望自己各方面的能力能有所提升:最后却也是最重要的一 ... 
- 3.3 unittest批量执行
			3.3 unittest批量执行 我们在写用例的时候,单个脚本的用例好执行,那么多个脚本的时候,如何批量执行呢?这时候就需要用到unittet里面的discover方法来加载用例了.加载用例后,用un ... 
- 【读书笔记】《Linux内核设计与实现》进程管理与进程调度
			大学跟老师做嵌入式项目,写过I2C的设备驱动,但对Linux内核的了解也仅限于此.Android系统许多导致root的漏洞都是内核中的,研究起来很有趣,但看相关的分析文章总感觉隔着一层窗户纸,不能完全 ... 
- Git版本库创建(包含文件权限设置 Linux环境下)
			确保git服务已安装成功,如果没有安装git服务查看:Git源码安装 Linux指定安装目录 1.创建git用户,并设置密码.并禁止git用户通过shell登录服务器(注意如果需要安装gitolite ... 
- css颜色属性及设置颜色的地方
			css颜色属性 在css中用color属性规定文本的颜色. 默认值是not specified 有继承性,在javascript中语法是object.style.color="#FF0000 ... 
- A New Function(LightOJ 1098)积性函数前缀和的应用
			题意:要求对于1~n,每个数的约数(不包括1和其本身)的和. 题解:由于题目数据有2*10^9之大,因而不能直接暴力.需要考虑积性函数的特性,由于必定有重复的约数出现,因而可以对重复约数所在的区间进行 ... 
- 2分钟理解文件IO -我对文件IO的理解与实验对比
			本文介绍了不同的IO方式以及他们之间的效率比较 1.一次读取写入单个字节(读取400M的文件浪费了很久,等了很久没读取完成,证明其效率很差) public class CopyFileDemo { p ... 
- 文献--A Survey on Server-side Approaches to Securing Web Applications
			Q:1.如何定义XSS攻击? 2.taint-based 啥意思? 3. second-order vulnerabilities 啥意思? 
- c++ 快速读入输出
			1. 读入优化 C++中有一个函数:getchar() ,用于读入字符,那么这跟读入整数有什么关系呢? 其实,经过类似高精度的处理,就可以实现类型转换啦! 下面是正负数读入优化模板: #include ... 
- Go Example--defer
			package main import ( "fmt" "os" ) func main() { f := createFile("/tmp/defe ... 
