python解析xml有很多种方法,比较流行的由SAX,DOM和ElementTree,简要介绍一下这几种方法的异同:

方法 特点
SAX SAX解析通过流模式在解析XML的过程中触发对应的事件(start_element、char_data、end_element)并调用用户定义的回调函数来处理XML文件。
DOM DOM 将XML数据在内存中解析成一个树,通过对树的操作来操作XML,占用内存大,解析速度较慢,优点是可以任意遍历树的节点。
ElementTree ElementTree 类似一个轻量级的DOM
接下来主要介绍ElementTree,该模块实现了一个简单而有效的API来解析和创建xml数据,是的,他不仅可以解析xml而且可以修改xml哦!!!

  1. xml是什么?
    xml是一种固有的分层数据格式,最自然的代表他的方式就是使用一棵树。xml.etree.ElementTree有两个类用于将xml文档表示为树,并且Element代表树的单个节点。与整个xml文档的交互是在ElementTree级别上的完成的,与单个xml元素及其子元素的交互是在Element级别上完成的。
  2. 解析xml
    巧妇难为无米之炊,首先我们准备一个xml文档作为示例数(这是我爬虫的一个xml文件,我直接用这个文档为大家演示里边的信息,大家可以自动忽略):
    <?xml version="1.0" encoding="UTF-8"?>
    <rules> <rule type="base" name="iaaf" allow_domains="iaaf.org" >
    <urls>
    <host_url>https://www.iaaf.org</host_url>
    <start_urls>https://www.iaaf.org/news</start_urls> <urllist pagestep="12" pages="1000" regex=" \'Articleurl\':\'(.*?)\'">
    <next_page>https://www.iaaf.org/data/news/typegroup/?take=12&amp;skip={}</next_page>
    </urllist> </urls>
    <xpath> <title>//div[@id="news"]/div/div/h1[@itemprop="name"]/text()</title>
    <time>//div[@id="news"]/div/div/span/span[@itemprop="datePublished"]/text()</time>
    <type>//div[@id="news"]/div/div/span/span[@class="_label type"]/a/text()</type>
    <publish>//div[@id="news"]/div[1]/div[3]/span/span[@class="_label location"]/text()</publish>
    <html regexexclude="&lt;ul class='col-md-12 prev-next&apos;.*?&lt;/ul&gt;">//div[@id="news"</html>
    <text>//div[@id="news"]/div/div/article[@itemprop="articleBody"]/p/text()</text>
    <imglink>//div[@id="news"]/div/div/ul/li/picture/img/@src | //div[@id="news"]/div/div/ul/li/picture/source/@srcset</imglink>
    <filelink></filelink> </xpath>
    </rule> <rule type="base" name="mp" allow_domains="kuaizhan.com" >
    <urls>
    <host_url>https://482809.kuaizhan.com</host_url>
    <start_urls>https://482809.kuaizhan.com/</start_urls> <urllist pagestep="1" pages="1000" regex="href=\'(.*?)\'">
    <next_page>https://www.kuaizhan.com/post/ajax-postlist?site_id=4216466368&amp;param=a891b9bfac46d41ebace9eccf88f5bbb&amp;cur_page={}</next_page>
    </urllist>
    </urls>
    <xpath> <title>//div[@id="page-content"]/div/div[@class="mod-title t0 "]/h2/text()</title>
    <time>//div[@id="page-content"]/div/div/span[@class="time"]/text()</time>
    <type>//div[@id="news"]/div/div/span/span[@class="_label type"]/a/text()</type>
    <publish>/html/body/div/div/div[@class="cell site-title"]/div/a/p/text()</publish>
    <html>//div[@id="page-content"]/div[@class="mod mod-layout_floor article-hd"] | //div[@id="page-content"]/div/div/div[@class="mod mod-html"]</html>
    <text>//div[@id="page-content"]/div/div/div/div[@class="mp-content"]/p/span/text()</text>
    <imglink>//div[@id="page-content"]/div/div/div/div[@class="mp-content"]/p/img/@src</imglink>
    <filelink></filelink>
    </xpath> </rule> <rule type="crawl" name="athletics" allow_domains="athletics.org.cn" >
    <urls>
    <host_url/>
    <start_urls>http://www.athletics.org.cn</start_urls > <urllist list_url=".*/list.html" allow_url=".*/[0-9]{4}-[0-9]{2}-[0-9]{2}/[0-9]*?\.html">
    <next_page>//div[@class="nav styfff fl clear"]/ul/li/a | //div[@class="wjxz styff"]/ul/li/a</next_page>
    </urllist > </urls> <xpath>
    <title>//div[@class="main"]/div[@class="atitle"]/text() | //div[@class="main"]/div[@class="atitle"]/font/text()</title>
    <time>//div[@class="main"]/div[@class="a01 sty999"]/span/text()</time>
    <type>//div[@class="wei"]/a[2]/text()</type>
    <publish>//div[@class="main"]/div[@class="a01 sty999"]/a/text()</publish>
    <html>//div[@class="main"]</html>
    <text>//div[@class="main"]/div[@class="atext"]/p/text()</text>
    <imglink>//div[@class="main"]/div[@class="atext"]/p/img/@src</imglink>
    <filelink>//div[@class="main"]/div[@class="atext"]/p/a/@href</filelink>
    </xpath> </rule>
    </rules> <!--
    &lt; < 小于号
    &gt; > 大于号
    &amp; & 和
    &apos; ' 单引号
    &quot; " 双引号
    -->

    注意:你如果自己写的xml文档,则必须保证xml文档格式的正确性,大家看到上述xml中的最后写着转义符的注释,在xml编写中往往大家忽略了转义符而导致xml文档格式不正确。如果你的xml格式不正确,用ElementTree解析时会报not well-formed (invalid token): line 20, column 65的错误,如果大家无法判断xml是否格式正确,大家可以通过vs编写会提示你的xml的格式的错误,你也可以通过ie打开你的xml,查看xml格式是否正常。这里不多做介绍。
    有了xml文件,首先我们需要将xml文件导入数据:

     import xml.etree.ElementTree as ET
    import logging
    def parsexml(xmlpath):
    try:
    tree=ET.parse(xmlpath)
    except Exception as e:
    logging.error('cannot parse file %s,error code:%s',xmlpath,e)

    你也可以从字符创中直接读取数据:

    import xml.etree.ElementTree as ET
    import logging def parsexml(str)
    try:
    root=ET.fromstring(str)
    except Exception as e:
    loggging.error('cannot parse str ,error code:%s',e)

    fromestring()将xml从一个字符串直接解析为一个Element,所以上边代码写的是root,即为跟元素。而读取xml文件的话则会解析为一棵树,所以用tree表示。
    那么接下来我们就用ET来把上边展示的xml的所有数据都解析出来并输出,代码如下:

    import xml.etree.ElementTree as ET
    import os
    import logging
    def parsexml(xmlpath):
    try:
    tree=ET.parse(xmlpath)
    root=tree.getroot()
    for child in root:
    print(child.tag,child.attrib)
    print('-----------------------------------------------')
    for rule in root.findall('rule'):
    type=rule.get('type')
    name=rule.get('name')
    allow_domains=rule.get('allow_domains')
    print(type,name,allow_domains) urls=rule.find('urls')
    host_url=urls.find('host_url').text
    start_urls=urls.find('start_urls').text
    print(host_url,start_urls) urllist=urls.find('urllist')
    pagestep=urllist.get('pagestep')
    pages=urllist.get('pages')
    regex=urllist.get('regex')
    next_page=urllist.find('next_page').text
    print(pagestep,pages,regex,next_page) xpath = rule.find('xpath')
    title=xpath.find('title').text
    time=xpath.find('time').text
    type=xpath.find('type').text print(title,time,type) except Exception as e:
    logging.error('Error:cannot parse file:%s',e) if __name__=='__main__':
    xmlpath=os.getcwd()+'\\rules.xml'
    parsexml(xmlpath)

    输出结果为:

    rule {'type': 'base', 'name': 'iaaf', 'allow_domains': 'iaaf.org'}
    rule {'type': 'base', 'name': 'mp', 'allow_domains': 'kuaizhan.com'}
    rule {'type': 'crawl', 'name': 'athletics', 'allow_domains': 'athletics.org.cn'}
    -----------------------------------------------
    base iaaf iaaf.org
    https://www.iaaf.org https://www.iaaf.org/news
    12 1000 \'Articleurl\':\'(.*?)\' https://www.iaaf.org/data/news/typegroup/?take=12&skip={}
    //div[@id="news"]/div/div/h1[@itemprop="name"]/text() //div[@id="news"]/div/div/span/span[@itemprop="datePublished"]/text() //div[@id="news"]/div/div/span/span[@class="_label type"]/a/text()
    base mp kuaizhan.com
    https://482809.kuaizhan.com https://482809.kuaizhan.com/
    1 1000 href=\'(.*?)\' https://www.kuaizhan.com/post/ajax-postlist?site_id=4216466368&param=a891b9bfac46d41ebace9eccf88f5bbb&cur_page={}
    //div[@id="page-content"]/div/div[@class="mod-title t0 "]/h2/text() //div[@id="page-content"]/div/div/span[@class="time"]/text() //div[@id="news"]/div/div/span/span[@class="_label type"]/a/text()
    crawl athletics athletics.org.cn
    None http://www.athletics.org.cn
    None None None //div[@class="nav styfff fl clear"]/ul/li/a | //div[@class="wjxz styff"]/ul/li/a
    //div[@class="main"]/div[@class="atitle"]/text() | //div[@class="main"]/div[@class="atitle"]/font/text() //div[@class="main"]/div[@class="a01 sty999"]/span/text() //div[@class="wei"]/a[2]/text()

    给出的示例xml相对已经比较复杂了,所以基本的解析方法也都用到了额,大家可以做参考。

python用ElemenTree快速高效的解析xml的更多相关文章

  1. python优秀库 - 使用xmltodict解析xml文档

    上次讲到如何使用BeautifulSoup解析XML文档,今天发现另外一个python库xmltodict(https://github.com/martinblech/xmltodict)也很简单. ...

  2. Python minidom模块(DOM写入和解析XML)

    一.DOM写XML文件 #导入minidom from xml.dom import minidom # 1.创建DOM树对象 dom=minidom.Document() # 2.创建根节点.每次都 ...

  3. 【Python】etree方法生成,解析xml

    #练习:另一种遍历xml文件的方式etree,xpathimport systry: import xml.etree.cElementTree as ET #前面带c的都是比较快的,效率高且不占内存 ...

  4. 用 ElementTree 在 Python 中解析 XML

    用 ElementTree 在 Python 中解析 XML 原文: http://eli.thegreenplace.net/2012/03/15/processing-xml-in-python- ...

  5. PYTHON解析XML的多种方式效率对比实测

    在最初学习PYTHON的时候,只知道有DOM和SAX两种解析方法,但是其效率都不够理想,由于需要处理的文件数量太大,这两种方式耗时太高无法接受. 在网络搜索后发现,目前应用比较广泛,且效率相对较高的E ...

  6. python 解析XML python模块xml.dom解析xml实例代码

    分享下python中使用模块xml.dom解析xml文件的实例代码,学习下python解析xml文件的方法. 原文转自:http://www.jbxue.com/article/16587.html ...

  7. python解析xml模块封装代码

    在python中解析xml文件的模块用法,以及对模块封装的方法.原文转自:http://www.jbxue.com/article/16586.html 有如下的xml文件:<?xml vers ...

  8. python解析xml之lxml

    虽然python解析xml的库很多,但是,由于lxml在底层是用C语言实现的,所以lxml在速度上有明显优势.除了速度上的优势,lxml在使用方面,易用性也非常好.这里将以下面的xml数据为例,介绍l ...

  9. 长安铃木经销商爬取(解析xml、post提交、python中使用js代码)

    1.通过火狐浏览器,查找大长安铃木官网中关于经销商的信息主要在两个网页中 http://www.changansuzuki.com/khfw/xml/pro.xml  地域信息 http://www. ...

随机推荐

  1. 【MYSQL】解决Mysql直接登录问题(删除匿名用户)(转)

    刚安装的Mysql会存在匿名用户. 在命令行下输入mysql,(如果这时提示不是外部或内部指令,那就把mysql server文件下的bin目录添加到系统路径Path中) 如果没有任何提示,直接进入& ...

  2. 工具 | 代码调试利器fiddle介绍

    我们开发的系统运行在用户的环境上,为了保护我们的代码和提升性能,前端javascript是经过压缩的.压缩的代码难于定位,当前只有chrome对压缩的代码支持格式化,但是变量和函数简化后,定位依然困难 ...

  3. php apache phpmyadmin mysql环境安装

    文件下载: Apache: http://httpd.apache.org/download.cgi PHP,phpMyAdmin,mysql,API下载:http://pan.baidu.com/s ...

  4. 【干货】一篇文章学会Gulp(Getting started with Gulp)

    抛开Grunt,又有一个新的自动化构建系统成为新的领跑者.那就是Gulp. Gulp是一种直观.自动化构建的工具. 为什么前端er会这么感兴趣Gulp?我相信大家都有个思想:要么不做事,要做事就要把事 ...

  5. spring入门之环境搭建

    本人刚刚接触spring,看了一些教程,但是很多概念都不懂(以前没接触过,看着很抽象),所以我觉得通过动手可能会更好的理解并且掌握.看了一些小实例,但是都没有成功,终于在各种尝试之后搭建成功了,现在我 ...

  6. js常用内置对象及方法

    在js中万物皆对象:字符串,数组,数值,函数...... 内置对象都有自己的属性和方法,访问方法如下: 对象名.属性名称: 对象名.方法名称 1.Array数组对象 unshift( )    数组开 ...

  7. 【原创】01-1. 基于 checked 关于 attribute 和 property 的理解

    Attribute(属性) 和 Property(特性) Attribute(元素节点的属性),例如html中常用的class.title.align等(即:属性节点).而Property 是这个DO ...

  8. 移动APP云测试平台测评分析

    随着智能手机的普及率和渗透率越来越高,App开发软件也越来越多.有专家预测,2017年的App应用下载量将会突破2500亿,整个移动科技市场规模将会达到770亿美元.身处在这个"移动&quo ...

  9. Python数据网络采集5--处理Javascript和重定向

    Python数据网络采集5--处理Javascript和重定向 到目前为止,我们和网站服务器通信的唯一方式,就是发出HTTP请求获取页面.有些网页,我们不需要单独请求,就可以和网络服务器交互(收发信息 ...

  10. HDU5742 It's All In The Mind(思维题,水题)

    Problem Description Professor Zhang has a number sequence a1,a2,...,an. However, the sequence is not ...