Beautiful Soup库

Beautiful Soup库:https://www.crummy.com/software/BeautifulSoup/

安装Beautiful Soup:

使用Beautiful Soup库

from bs4 import BeautifulSoup	#这里的BeautifulSoup是个类
soup = BeautifulSoup('<p>data</p>','html.parser')#使用html.parser解析器

例子:获取http://python123.io/ws/demo.html的信息

Beautiful Soup库的基本元素

Beautiful Soup库是解析、遍历、维护“标签树”的功能库

Beautiful Soup库,也叫beautifulsoup4或者bs4。

from bs4 import BeautifulSoup	#在bs4库中引入BeautifulSoup类型
soup = BeautifulSoup("<html>data</html>","html.parser")
soup = BeautifulSoup("D://demo.html","html.parser") #通过打开文件的方式

BeautifulSoup对应一个HTML/XML文档的全部内容

Beautiful Soup库解析器

解析器 使用方法 条件
bs4的HTML解析器 BeautifulSoup(mk,'html.parser') 安装bs4库
lxml的HTML解析器 BeautifulSoup(mk,'lxml') pip install lxml
lxml的XML解析器 BeautifulSoup(mk,'xml') pip install lxml
html5lib的解析器 BeautifulSoup(mk,'html5lib') pip install html5lib

Beautiful Soup类的基本元素

基本元素 说明
Tag 标签,最基本的信息组织单元,分别用<>和</>标明开头和结尾
Name 标签名字,< p >...< /p >的名字是‘p’,格式:< tag >.name
Attributes 标签的属性,字典形式组织,格式:< tag >.attrs
NavigebleString 标签内非属性字符串,<>...</>中字符串,格式:< tag >.string
Comment 标签内字符串的注释部分,一种特殊的Comment类型

基于bs4库的HTML内容遍历方法

标签树的下行遍历

属性 说明
.contents 子节点的列表,将< tag >所有儿子节点存入列表
.children 子节点的迭代类型,与.contents类似,用于循环遍历儿子节点
.descendants 子孙节点的迭代类型,包含所有子孙节点,用于循环遍历
for child in soup.body.children:
print(child) #遍历body标签儿子节点 for child in soup.body.descendants:
print(child) #遍历子孙节点

标签树的上行遍历

属性 说明
.parent 节点的父亲标签
.parents 节点先辈标签的迭代类型,用于循环遍历先辈节点

打印soup的a标签的所有先辈:

标签树的平行遍历

平行遍历发生在同一个父节点下的各节点间

属性 说明
.next_sibling 返回按照HTML文本顺序的下一个平行节点标签
.previous_sibling 返回按照HTML文本顺序的上一个平行节点的标签
.net_sibling 迭代类型,返回按照HTML文本顺序的后续所有平行节点标签
.previous_sibling 迭代类型,返回按照HTML文本顺序的前续所有平行节点标签
for sibling in soup.a.next_siblings:
print(sibling) #遍历后续平行节点 for sibling in soup.a.previous_sibling:
print(sibling) #遍历前续平行节点

基于bs4库的HTML格式化和编码

prettify()方法

.prettify()方法在每个标签后面加了个换行符/n

基于bs4库的HTML内容查找方法

.find_all(name, attrs, recursive, string, **kwargs)

返回一个列表类型,存储查找的结果

  • name:对标签名称的检索字符串

  • attres:对标签属性值的检索字符串,可标注属性检索

  • recursive:是否对子孙全部检索,默认True

  • string:<>...</>中字符串区域的检索字符串

扩展方法

方法 说明
<>.find() 搜索且只返回一个结果,字符串类型,同.find_all()参数
<>.find()_parents() 先辈节点搜索,返回列表类型,同.find_all()参数
<>.find()_parent() 先辈节点返回一个结果,字符串类型,同.find()参数
<>.find()_next_siblings() 后续平行节点中搜索,返回列表类型,同.find_all()参数
<>.find()_next_sibling() 后续平行节点中返回一个结果,字符串类型,同.find()参数
<>.find()_previous_siblings() 前序平行节点中搜素,返回列表类型,同.find()_all参数
<>.find()_previous_sibling() 前序平行节点中返回一个结果,字符串类型,同.find()参数

实例:“中国大学排名定向爬虫”

中国大学排名:

http://www.zuihaodaxue.cn/zuihaodaxuepaiming2016.html

功能描述

  • 输入:大学排名URL链接
  • 输出:大学排名信息的屏幕输出(排名,大学名称,总分)
  • 技术路线:requests-bs4
  • 定向爬虫:仅对输入URL进行爬取,不扩展爬取

程序的结构设计

  • 步骤1:从网络上获取大学排名网页内容 getHTMLText()
  • 步骤2:提取网页内容中信息到合适的数据结构 fillUnivList()
  • 步骤3:利用数据结构展示并输出结果 printUnivList()
import requests
from bs4 import BeautifulSoup
import bs4 def getHTMLText(url):
try:
r = requests.get(url, timeout = 30)
r.raise_for_status()
r.encoding = r.apparent_encoding
return r.text
except:
return "" def fillUnivList(ulist, html):
soup = BeautifulSoup(html, "html.parser")
for tr in soup.find('tbody').children: #find查找tbody标签,children循环遍历儿子节点
if isinstance(tr,bs4.element.Tag):#判断tr是否是类bs4.element.Tag的对象
tds = tr('td')
ulist.append([tds[0].string,tds[1].string,tds[2].string])#.string:<>...</>中字符串区域的检索字符串 def printUnivList(ulist, num):
tplt = "{0:^10}\t{1:{3}^10}\t{2:^10}"
print(tplt.format("排名", "学校名称", "总分",chr(12288))) #chr(12288)中文空格填充
for i in range(num):
u=ulist[i]
print(tplt.format(u[0],u[1],u[2],chr(12288))) def main():
unifo = []
url = 'http://www.zuihaodaxue.cn/zuihaodaxuepaiming2016.html'
html = getHTMLText(url)
fillUnivList(unifo, html)
printUnivList(unifo, 20) #20 univs
main()

Python Beautiful Soup库的更多相关文章

  1. python beautiful soup库的超详细用法

    原文地址https://blog.csdn.net/love666666shen/article/details/77512353 参考文章https://cuiqingcai.com/1319.ht ...

  2. python Beautiful Soup库入门

    bs4库的HTML内容遍历方法 基于bs4库的HTML格式输出 显示:友好的显示 <tag>.prettify() 编码:bs4库将任何HTML输入都变成utf-8编码(python 3. ...

  3. Beautiful Soup库基础用法(爬虫)

    初识Beautiful Soup 官方文档:https://www.crummy.com/software/BeautifulSoup/bs4/doc/# 中文文档:https://www.crumm ...

  4. 【转载】Beautiful Soup库(bs4)入门

    转载自:Beautiful Soup库(bs4)入门 该库能够解析HTML和XML 使用Beautiful Soup库:      from bs4 import BeautifulSoup impo ...

  5. Beautiful Soup库入门

    1.安装:pip install beautifulsoup4 Beautiful Soup库是解析.遍历.维护“标签树”的功能库 2.引用:(1)from bs4 import BeautifulS ...

  6. 【Python爬虫学习笔记(3)】Beautiful Soup库相关知识点总结

    1. Beautiful Soup简介     Beautiful Soup是将数据从HTML和XML文件中解析出来的一个python库,它能够提供一种符合习惯的方法去遍历搜索和修改解析树,这将大大减 ...

  7. Python Beautiful Soup 解析库的使用

    Beautiful Soup 借助网页的结构和属性等特性来解析网页,这样就可以省去复杂的正则表达式的编写. Beautiful Soup是Python的一个HTML或XML的解析库. 1.解析器 解析 ...

  8. python之Beautiful Soup库

    1.简介 简单来说,Beautiful Soup是python的一个库,最主要的功能是从网页抓取数据.官方解释如下: Beautiful Soup提供一些简单的.python式的函数用来处理导航.搜索 ...

  9. crawler碎碎念4 关于python requests、Beautiful Soup库、SQLlite的基本操作

    Requests import requests from PIL import Image from io improt BytesTO import jason url = "..... ...

随机推荐

  1. jdbc连接数据库以及简单实现(普通JDBC方法实现和连接池方式实现)

    @ 目录 总结内容 1. 基本概念 jdbc的概念 2. 数据库连接 数据库的连接 DAO层思想 重构设计 3. 事务 概念 事务的ACID属性 事务的操作 4. 连接池 为什么要使用连接池 连接池分 ...

  2. 浅谈Web前后端分离的意义

    自然是有很大意义的.下面我可能说的比较多--方便题主能够更全面的了解为什么说是有有意义的.另外,本文是以Java的角度谈前后端分离.放心,大家一定会有种是我了,没错,的感觉. 一.先来明晰下概念 前后 ...

  3. [前端学习]vue的指令学习记录 vu-if | text | for | on | model | bind | pre

    vue的指令学习记录 vue-if | text | for | on | model - 目录 vue的指令学习记录 vue-if | text | for | on | model ... 预备 ...

  4. CTFHUB之gopher协议实现SSRF

    介绍 解题思路: 利用302协议(重定向)的跳转ssrf.可以访问与服务器相连的内网 ①什么是gopher协议 Gopher是Internet上一个信息查找系统,它将Internet上的文件组织成某种 ...

  5. Mybatis-plugins分页助手实现查询数据分页

    其他具体代码接上文->mybatis自定义处理器 1.导入坐标 <dependency> <groupId>com.github.pagehelper</group ...

  6. python入门基础-介绍、基础语法

    一.anaconda下的spyder简介 Spyder 是一个强大的交互式 Python 语言开发环境,提供高级的代码编辑.交互测试.调试等特性,支持包括 Windows.Linux 和 OS X 系 ...

  7. Typecho文章设置永久链接

    说明 想要给Typecho文章一个独立的url,或按照自己的格式来 这时候我们就要设置永久链接 Typecho设置文章永久链接 设置伪静态 伪静态设置要取决于是nginx还是apache,详情请参考& ...

  8. gin框架使用【7.中间件使用】

    在 gin中,通过默认的函数,构建一个实现了带默认中间件的 *Engine. r := gin.Default() 默认绑定了Logger和Recovery中间件,帮助我们进行日志输出和错误处理. f ...

  9. AcWing 165. 小猫爬山 DFS

    165. 小猫爬山 https://www.acwing.com/problem/content/description/167/ 题目 思路 dfs每一个小猫,对于要不要开新车的状态再进行dfs(注 ...

  10. mongodb 数据块的迁移流程介绍

    1. 基本概念 1.1 Chunk(数据块) 表示特定服务器上面,连续范围的分片键值所包含的一组数据,是一个逻辑概念. 例如,某数据块记录如下: { "_id" : "c ...