# 解析原理:
# - 获取页面源码数据
# - 实例化一个etree对象,并且将页面源码数据加载到该对象中
# - 调用该对象的xpath方法进行指定标签定位
# - xpath函数必须结合着xpath表达式进行标签定位和内容捕获
# xpath表达式:
# - 属性定位: //div[@class="song"] 找到class属性值为song的div 返回一个列表
# - 索引层级定位: //div[@class="tang"]/ul/li[2]/a
# - 逻辑运算: //a[@href="" and @class="du"] 并且
# - 模糊匹配: //div[contains(@class, 'ng')] class包含 ng 的div
# //div[startwith(@class, 'ta')] class以 ta 开头的div
# - 取文本: //div[@class="song"]/p[1]/text() div下的文本内容
# //div[@class="tang"]//text() div下以及字标签下的文本内容 返回列表
# - 取属性: // div[@class="tang"]//a[1]/@href

下面上几个小案例:

import requests
from lxml import etree url = 'https://bj.58.com/ershoufang/?utm_source=sem-sales-baidu-pc&spm=85077276202.21974091622&utm_campaign=sell&utm_medium=cpc&showpjs=pc_fg' headers = {
'User-Agent':'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/71.0.3578.98 Safari/537.36'
} page_text = requests.get(url=url, headers=headers).text tree = etree.HTML(page_text)
li_list = tree.xpath('//ul[@class="house-list-wrap"]/li') # 返回的是Element对象
fp = open('58.csv', 'w', encoding='utf8')
for li in li_list:
title = li.xpath('./div[2]/h2/a/text()')[0] # 局部页面解析要加'.'
price1 = li.xpath('./div[3]//text()')
price = ''.join(price1)
fp.write(title+":"+price+'\n')
fp.close()
print('over')

爬取 58二手房信息

xpath 解析图片资源

import requests
from lxml import etree url = "http://pic.netbian.com/4kmeinv/" headers = {
'User-Agent':'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/71.0.3578.98 Safari/537.36'
}
page_text = requests.get(url=url, headers=headers).text tree = etree.HTML(page_text)
# etree.parse(page_text) 解析本地文件推荐使用
li_list = tree.xpath('//div[@class="slist"]/ul/li')
for li in li_list:
image_name = li.xpath('./a/b/text()')[0]
image_name = image_name.encode('iso-8859-1').decode('gbk')
image_url = 'http://pic.netbian.com'+li.xpath('./a/img/@src')[0]
image_path = './img/'+image_name+'.jpg'
img = requests.get(image_url).content
with open(image_path, 'wb') as f:
f.write(img)
print(image_path+'下载成功')

图片怎么爬取呢?

import requests
import base64
from lxml import etree headers = {
'User-Agent':'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/71.0.3578.98 Safari/537.36'
}
url = 'http://jandan.net/top'
response = requests.get(url=url, headers=headers)
page_text = response.text
tree = etree.HTML(page_text)
code_list = tree.xpath('//span[@class="img-hash"]/text()')
for img_code in code_list:
img_url = 'http:'+base64.b64decode(img_code).decode()
img_name = img_url.split('/')[-1]
img_path = f'./jd_img/{img_name}'
print(img_url)
content = requests.get(img_url).content
with open(img_path, 'wb') as f:
f.write(content)
print(img_name+'成功')
print('over')

有的时候我找不到我要的图片链接呀

上面是煎蛋网采用了js的方法对图片链接地址进行了base64的加密

# 简历模板爬取(ip禁用问题)
# 解决方法:
# ip代理,
# 请求头中添加Connection字段:close
import requests
import random
from lxml import etree url = 'http://sc.chinaz.com/jianli/free.html' headers = {
'Connection': 'close', # 每次请求成功之后,发马上断开连接(修改后有几率无法立即生效,出现Httppool...错误- 重新运行)
'User-Agent':'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/71.0.3578.98 Safari/537.36'
}
page_text = requests.get(url=url, headers=headers).text
tree = etree.HTML(page_text)
a_list = tree.xpath('//div[@id="container"]/div/a[1]')
for a in a_list:
title = a.xpath('./img/@alt')[0].encode('iso-8859-1').decode('utf-8')
detail_url = a.xpath('./@href')[0]
detail_text = requests.get(url=detail_url, headers=headers).text
d_tree = etree.HTML(detail_text)
down_url_list = d_tree.xpath('//div[@class="down_wrap"]//li/a/@href')
down_url = random.choice(down_url_list)
data = requests.get(down_url,headers=headers).content
with open(f'./简历模板/{title}.rar', 'wb') as f:
f.write(data)
print(title+'完成')
print('over')

站长之家模板资源爬取下载

爬虫之lxml - etree - xpath的使用的更多相关文章

  1. lxml etree xpath

    from lxml import etree #####################基本用法: ##################### html = ''' <h1 class=&quo ...

  2. Python爬虫利器三之Xpath语法与lxml库的用法

    前面我们介绍了 BeautifulSoup 的用法,这个已经是非常强大的库了,不过还有一些比较流行的解析库,例如 lxml,使用的是 Xpath 语法,同样是效率比较高的解析方法.如果大家对 Beau ...

  3. python爬虫(8)--Xpath语法与lxml库

    1.XPath语法 XPath 是一门在 XML 文档中查找信息的语言.XPath 可用来在 XML 文档中对元素和属性进行遍历.XPath 是 W3C XSLT 标准的主要元素,并且 XQuery ...

  4. Python爬虫教程-22-lxml-etree和xpath配合使用

    Python爬虫教程-22-lxml-etree和xpath配合使用 lxml:python 的HTML/XML的解析器 官网文档:https://lxml.de/ 使用前,需要安装安 lxml 包 ...

  5. 爬虫解析库:XPath

    XPath     XPath,全称 XML Path Language,即 XML 路径语言,它是一门在 XML 文档中查找信息的语言.最初是用来搜寻 XML 文档的,但同样适用于 HTML 文档的 ...

  6. 爬虫之 BeautifulSoup与Xpath

    知识预览 BeautifulSoup xpath BeautifulSoup 一 简介 简单来说,Beautiful Soup是python的一个库,最主要的功能是从网页抓取数据.官方解释如下: '' ...

  7. Python爬虫之lxml-etree和xpath的结合使用

    本篇文章给大家介绍的是Python爬虫之lxml-etree和xpath的结合使用(附案例),内容很详细,希望可以帮助到大家. lxml:python的HTML / XML的解析器 官网文档:http ...

  8. lxml etree的一个问题

    <div> <a href="xxxx">123</a> <a href="xxxx">45</a> ...

  9. 【译】:lxml.etree官方文档

    本文翻译自:http://lxml.de/tutorial.html, 作者:Stefan Behnel 这是一个关于使用lxml.etree进行XML处理的教程.它简要介绍了ElementTree ...

随机推荐

  1. TCP的超时与重传

    一.引言 对于每个TCP连接,TCP管理4个不同的定时器 重传定时器用于当希望收到另一端的确认. 坚持 (persist) 定时器使窗口大小信息保持不断流动,即使另一端关闭了其接收窗口. 保活 (ke ...

  2. 2016级算法第五次上机-F.ModricWang的水系法术

    1066 ModricWang的水系法术 思路 比较典型的最大流问题,需要注意的是,题目已经暗示(明示)了这里的边是双向的,在建图的时候需要加上反向边的容量值. 解决最大流问题的基本思路就是不断在残量 ...

  3. [原创] Shell 参数传递 与 默认值

    目录 简介 基本传参 $* 与 $@ 区别 默认参数(变量默认值) if 繁琐方式 - 变量为null = 变量为null时, 同时改变变量值 :- 变量为null 或 空字符串 := 变量为null ...

  4. 标准结构篇:2)O型橡胶密封圈

    本章目的:设计出符合行业要求的O型橡胶密封圈,不必再为一而再,再而三的测试漏水而烦恼. 1.前言 O型橡胶密封圈,简称O型圈,是密封圈的一种,也是最有代表性的标准结构件.顾名思义,它的目的在于密封.密 ...

  5. 阿里云Centos下安装nginx之后外网无法访问

    centos 7.4 nginx1-14.0编译安装 curl 127.0.0.1 可以请求到 index.html curl local 可以请求到 index.html http://ip/ 无法 ...

  6. Codeforces - tag::flows 大合集 [完坑 x14]

    589F 题意:给出n个时间区间,每个区间挑定长的非连续区间,求不同个区间不存在时间冲突的最大定长,输出乘上n 二分图模型+二分长度,左顶点集为区间编号,右顶点集为时间编号(1...10000),汇点 ...

  7. Python中使用PyMySQL

    1.项目中使用PyMySQL一些案例 建立一个config.py 用于存储配置文件 2.测试 ##获取数据 from config import ctf '''connection对象支持的方法 cu ...

  8. MonggoDB学习笔记

    MongoDB MongoDB介绍:非关系型的文档数据库.MongoDB的数据模型是面向文档的,文档是一种类似于JSON的结构.简单理解MongoDB这个数据库中存的是各种各样的JSON.(BSON) ...

  9. vue打包后出现的.map文件

    run dev build 打包项目后出现的list中的".map"文件最大. “.map”文件的作用:项目打包后,代码都是经过压缩加密的,如果运行时报错,输出的错误信息无法准确得 ...

  10. 转帖 利用伪元素和css3实现鼠标移入下划线向两边展开效果

    原帖地址   https://www.cnblogs.com/yangjunfei/p/6739683.html 感谢分享 一.思路: 将伪元素:before和:after定位到元素底部中间,设置宽度 ...