Python爬虫——用BeautifulSoup、python-docx爬取廖雪峰大大的教程为word文档
版权声明:本文为博主原创文章,欢迎转载,并请注明出处。联系方式:460356155@qq.com
廖雪峰大大贡献的教程写的不错,写了个爬虫把教程保存为word文件,供大家方便下载学习:http://pan.baidu.com/s/1o7InnQE
运行环境:python 2.7、beautifulsoup4、python-docx 0.8.6,Python爬虫源代码如下:
# -*- coding:utf-8 -*-
__author__ = 'zhengbiqing 460356155@qq.com'
from bs4 import BeautifulSoup
from urllib import urlopen,urlretrieve
import re
from collections import OrderedDict
from docx import Document
from docx.shared import Inches
import docx
import os
import time
import sys
from PIL import Image baseUrl = 'http://www.liaoxuefeng.com'
#python
#firstPageUrl = '/wiki/001374738125095c955c1e6d8bb493182103fac9270762a000'
#git
#firstPageUrl = '/wiki/0013739516305929606dd18361248578c67b8067c8c017b000'
#javascript
firstPageUrl = '/wiki/001434446689867b27157e896e74d51a89c25cc8b43bdb3000' INDENT = 8
TMP_IMG_NAME = 'tmpimg.jpg'
A4_WIDTH = 590
A4_WIDTH_INCH = 6
PAGE_OPEN_DELAY = 1 #保存目录信息的有序字典
content = OrderedDict() def writePage( url, indentNum, doc ):
'''
保存一个html页面
:param url: 页面地址
:param indentNum: 目录项缩进量,形成层次性的目录结构
:param doc: 指向保存到的word文件
:return:
'''
bsObj = BeautifulSoup( urlopen( url ), 'lxml' )
#找到章节标题,并保存
title = bsObj.find( 'div', class_="x-content" ).find( 'h4' )
doc.add_heading( title.get_text(), int(indentNum) )
#找到文章内容主体,得到每一个p标签,遍历每个p标签
pageContent = bsObj.find( 'div', class_="x-wiki-content" )
pages = pageContent.findAll( 'p' ) for page in pages:
#对img标签,得到图片并保存到word文件
imgs = page.findAll( 'img' )
for img in imgs:
imgUrl = baseUrl + img['src'] if img['src'].startswith( '/') else img['src']
urlretrieve( imgUrl, TMP_IMG_NAME )
pic = Image.open( TMP_IMG_NAME )
if (pic.size)[0] > A4_WIDTH:
doc.add_picture( TMP_IMG_NAME, width = Inches(A4_WIDTH_INCH) )
else:
doc.add_picture( TMP_IMG_NAME )
#保存文字
doc.add_paragraph( page.get_text() )
#添加分页
doc.add_page_break() def writeContent( url, doc ):
'''
得到目录信息,并保存为word文件目录,但未实现链接跳转功能,python-docx的该功能在开发中
:param url: 目录信息业html页面地址
:param doc: 指向保存到的word文件
:return:
'''
html = urlopen( url )
bsObj = BeautifulSoup( html, 'lxml' )
#找到符合一定特征的目录项
contentList = bsObj.findAll( 'li', { 'style': re.compile( '^margin-left.*' ), 'id': not None } ) for contentItem in contentList:
contentLink = contentItem.find( 'a' )
#得到目录项的缩进数,表征了目录项的层次
indent = re.findall( '\d+', contentItem['style'] )
contentStr = ' '* INDENT * int( indent[0] ) + contentLink.string
#避免重复的目录项
if contentStr not in content:
#目录信息,包括标题、链接、缩进
content[contentStr] = [contentLink['href'], indent[0]] doc.add_heading( u'目录', 0 )
for item,value in content.items():
#print item, value
#保存目录到word文档
doc.add_paragraph( item ) doc.add_page_break() def fileName( url ):
'''
从html中得到word文件名
'''
html = urlopen( url )
bsObj = BeautifulSoup( html, 'lxml' )
return bsObj.title.string fileName = fileName( baseUrl + firstPageUrl ) + '.doc'
document = docx.Document( fileName ) if os.path.exists( fileName ) else docx.Document() writeContent( baseUrl + firstPageUrl, document )
writePage( baseUrl + firstPageUrl, '', document ) for page in content.values():
#调试信息
print baseUrl + page[0]
writePage( baseUrl + page[0], page[1], document )
time.sleep( PAGE_OPEN_DELAY ) #调试时采用,只读几个页面
'''
for i in range( 1 ):
#调试信息
print baseUrl + content.values()[i][0]
writePage( baseUrl + content.values()[i][0], content.values()[i][1], document )
time.sleep( PAGE_OPEN_DELAY )
''' document.save( fileName ) #删除图片临时文件
try:
os.remove( TMP_IMG_NAME )
except:
print 'remove file fail'
Python爬虫——用BeautifulSoup、python-docx爬取廖雪峰大大的教程为word文档的更多相关文章
- 爬取廖雪峰的python3教程
		
从廖雪峰老师的python教程入门的,最近在看python爬虫,入手了一下 代码比较low,没有用到多线程和ip代理池 然后呢,由于robots.txt的限定,构建了一些user-agent,并放慢的 ...
 - python爬虫实践(二)——爬取张艺谋导演的电影《影》的豆瓣影评并进行简单分析
		
学了爬虫之后,都只是爬取一些简单的小页面,觉得没意思,所以我现在准备爬取一下豆瓣上张艺谋导演的“影”的短评,存入数据库,并进行简单的分析和数据可视化,因为用到的只是比较多,所以写一篇博客当做笔记. 第 ...
 - Python爬虫初探 - selenium+beautifulsoup4+chromedriver爬取需要登录的网页信息
		
目标 之前的自动答复机器人需要从一个内部网页上获取的消息用于回复一些问题,但是没有对应的查询api,于是想到了用脚本模拟浏览器访问网站爬取内容返回给用户.详细介绍了第一次探索python爬虫的坑. 准 ...
 - 【python爬虫】一个简单的爬取百家号文章的小爬虫
		
需求 用"老龄智能"在百度百家号中搜索文章,爬取文章内容和相关信息. 观察网页 红色框框的地方可以选择资讯来源,我这里选择的是百家号,因为百家号聚合了来自多个平台的新闻报道.首先看 ...
 - Python爬虫开源项目代码,爬取微信、淘宝、豆瓣、知乎、新浪微博、QQ、去哪网等 代码整理
		
作者:SFLYQ 今天为大家整理了32个Python爬虫项目.整理的原因是,爬虫入门简单快速,也非常适合新入门的小伙伴培养信心.所有链接指向GitHub,祝大家玩的愉快 1.WechatSogou [ ...
 - Python爬虫——使用 lxml 解析器爬取汽车之家二手车信息
		
本次爬虫的目标是汽车之家的二手车销售信息,范围是全国,不过很可惜,汽车之家只显示100页信息,每页48条,也就是说最多只能够爬取4800条信息. 由于这次爬虫的主要目的是使用lxml解析器,所以在信息 ...
 - python 爬虫proxy,BeautifulSoup+requests+mysql 爬取样例
		
实现思路: 由于反扒机制,所以需要做代理切换,去爬取,内容通过BeautifulSoup去解析,最后入mysql库 1.在西刺免费代理网获取代理ip,并自我检测是否可用 2.根据获取的可用代理ip去发 ...
 - 23个Python爬虫开源项目代码:爬取微信、淘宝、豆瓣、知乎、微博等
		
来源:全球人工智能 作者:SFLYQ 今天为大家整理了23个Python爬虫项目.整理的原因是,爬虫入门简单快速,也非常适合新入门的小伙伴培养信心.所有链接指向GitHub,祝大家玩的愉快 1.Wec ...
 - python爬虫入门新手向实战 - 爬取猫眼电影Top100排行榜
		
本次主要爬取Top100电影榜单的电影名.主演和上映时间, 同时保存为excel表个形式, 其他相似榜单也都可以依葫芦画瓢 首先打开要爬取的网址https://maoyan.com/board/4, ...
 
随机推荐
- 企业级仓库harbor搭建
			
1.Harbor是什么? Harbor是Vmvare中国团队开发的开源registry仓库,相比docker官方拥有更丰富的权限权利和完善的架构设计,适用大规模docker集群部署提供仓库服务.在企业 ...
 - Spring事务管理2--声明式
			
简述 1.Spring 的声明式事务管理在底层是建立在 AOP 的基础上.其本质是在方法前后进行拦截,然后在目标方法开始之前创建一个事务,在执行这目标方法结束后,根据执行情况提交或进行回滚事务. 2. ...
 - 【Linux基础】文件处理实例
			
1.文件拆分 //每4000行拆分一个文件 epms_t_ep_fx_stl_xy_20190129.dat 2.行处理 //查找第二列为711611且第三列为711100记录,打印行号和整行数据 a ...
 - 用js显示系统当前日期
			
<!DOCTYPE html> <html> <head> <meta charset="utf-8" /> <title&g ...
 - 在Intellij IDEA下通过Hibernate逆向生成实体类
			
前言:在IDEA中,通过相关插件,可以利用Hibernate逆向生成数据表对应的实体类.具体操作及注意事项见本篇随笔. 1.创建一个基于maven的hibernate工程.并在工程中添夹hiberna ...
 - nginx作为负载均衡服务器,tomcat作为应用服务器
			
1 如果想用一台主机,能够部署多个站点,并且访问每个站点都要求是在80端口,可以采用nginx+tomcat的方式 需要注意的是,tomcat一定不要监听80端口. 可以将静态资源配置在nginx ...
 - 解决VS Code使用code runner开发Python乱码问题
			
微软开发的VS Code是一个跨平台的文本编辑器,通过各种插件,可以把自己武装成无所不能的IDE. 刚刚安装完VS Code时,迫不急待地安装了C/C++.Python以及Code Runner插件, ...
 - Windows10下使用python+selenium实现谷歌浏览器的自动控制
			
第一 谷歌浏览器一直是开发人员最喜欢的浏览器,python爬虫在进行抓包时尤其好用,今天为大家带来python+selenium进行自动化控制的安装教程 安装selenium windows下在cmd ...
 - PAT A1094 The Largest Generation (25 分)——树的bfs遍历
			
A family hierarchy is usually presented by a pedigree tree where all the nodes on the same level bel ...
 - Can 't connect to local MySQL server through socket '/tmp/mysql.sock '(2) "
			
安装了mysql, 使用命令mysql -u root -p 弹出Can 't connect to local MySQL server through socket '/tmp/mysql.soc ...