python爬虫学习01--电子书爬取

1.获取网页信息

import requests        #导入requests库
'''
获取网页信息
'''
if __name__ == '__main__': #主函数入口
target = 'https://www.xsbiquge.com/78_78513/108078.html'#要爬取的目标地址
req = requests.get(url=target) #进行get请求
req.encoding='utf-8' #设置编码
print(req.text) #打印输出

2.引入BeautifulSoup对网页内容进行解析

import requests        #导入requests库
from bs4 import BeautifulSoup #引入BeautifulSoup库 '''
引入BeautifulSoup对网页内容进行解析
获取网页电子书文本信息
'''
if __name__ == '__main__': #主函数入口
target = 'https://www.xsbiquge.com/78_78513/108078.html'#要爬取的目标地址
req = requests.get(url=target) #发起请求,获取html信息
req.encoding='utf-8' #设置编码
html = req.text #将网页的html信息保存在html变量中
bs = BeautifulSoup(html,'lxml') #使用lxml对网页信息进行解析
texts = bs.find('div',id='content') #获取所有<div id = "content">的内容
print(texts) #打印输出

3.切分数据,去掉空格,提取文字

import requests        #导入requests库
from bs4 import BeautifulSoup #引入BeautifulSoup库 '''
引入BeautifulSoup对网页内容进行解析
获取网页电子书文本信息
最后一句texts.text 是提取所有文字,然后再使用 strip 方法去掉回车,
最后使用 split 方法根据 \xa0 切分数据,因为每一段的开头,都有四个空格
'''
if __name__ == '__main__': #主函数入口
target = 'https://www.xsbiquge.com/78_78513/108078.html'#要爬取的目标地址
req = requests.get(url=target) #发起请求,获取html信息
req.encoding='utf-8' #设置编码
html = req.text #将网页的html信息保存在html变量中
bs = BeautifulSoup(html,'lxml') #使用lxml对网页信息进行解析
texts = bs.find('div',id='content') #获取所有<div id = "content">的内容
print(texts.text.strip().split('\xa0'*4)) #打印输出

4.查看章节列表

import requests        #导入requests库
from bs4 import BeautifulSoup #引入BeautifulSoup库 '''
查看章节列表信息
引入BeautifulSoup对网页内容进行解析
获取网页电子书文本信息 '''
if __name__ == '__main__': #主函数入口
target = 'https://www.xsbiquge.com/78_78513/'#要爬取的目标地址,《元尊》的章节目录网址
req = requests.get(url=target) #发起请求,获取html信息
req.encoding='utf-8' #设置编码
html = req.text #将网页的html信息保存在html变量中
bs = BeautifulSoup(html,'lxml') #使用lxml对网页信息进行解析
chapters = bs.find('div',id='list') #获取所有<div id = "list">的内容
chapters = chapters.find_all('a') #找到list中的a标签中的内容
for chapter in chapters:
print(chapter) #打印章节列表

5.获取章节目录和章节链接

import requests        #导入requests库
from bs4 import BeautifulSoup #引入BeautifulSoup库 '''
查看章节列表信息
引入BeautifulSoup对网页内容进行解析
获取网页电子书文本信息 '''
if __name__ == '__main__': #主函数入口
server = 'https://www.xsbiquge.com'
target = 'https://www.xsbiquge.com/78_78513/'#要爬取的目标地址,《元尊》的章节目录网址
req = requests.get(url=target) #发起请求,获取html信息
req.encoding='utf-8' #设置编码
html = req.text #将网页的html信息保存在html变量中
bs = BeautifulSoup(html,'lxml') #使用lxml对网页信息进行解析
chapters = bs.find('div',id='list') #获取所有<div id = "list">的内容
chapters = chapters.find_all('a') #找到list中的a标签中的内容
for chapter in chapters:
url = chapter.get('href') #获取章节链接中的href
print("《"+chapter.string+"》") #打印章节名字
print(server+url) #将电子书网站与获取到的章节连接进行拼接,得到每一个章节的链接

6.整合数据,下载电子书文档

import requests        #导入requests库
from bs4 import BeautifulSoup #引入BeautifulSoup库
import time
from tqdm import tqdm '''
查看章节列表信息
引入BeautifulSoup对网页内容进行解析
获取网页电子书文本信息 '''
def get_content(target):
req = requests.get(url=target) # 发起请求,获取html信息
req.encoding = 'utf-8' # 设置编码
html = req.text # 将网页的html信息保存在html变量中
bf = BeautifulSoup(html, 'lxml') # 使用lxml对网页信息进行解析
texts = bf.find('div', id='content') # 获取所有<div id = "content">的内容
content = texts.text.strip().split('\xa0' * 4)
return content if __name__ == '__main__': #主函数入口
server = 'https://www.xsbiquge.com' #电子书网站地址
book_name = '《元尊》.txt'
target = 'https://www.xsbiquge.com/78_78513/'#要爬取的目标地址,《元尊》的章节目录网址
req = requests.get(url=target) #发起请求,获取html信息
req.encoding='utf-8' #设置编码
html = req.text #将网页的html信息保存在html变量中
chapter_bs = BeautifulSoup(html,'lxml') #使用lxml对网页信息进行解析
chapters = chapter_bs.find('div',id='list') #获取所有<div id = "list">的内容
chapters = chapters.find_all('a') #找到list中的a标签中的内容
for chapter in tqdm(chapters):
chapter_name = chapter.string #章节名字
url = server + chapter.get('href') #获取章节链接中的href
content = get_content(url)
with open(book_name,'a',encoding='utf-8') as f:
f.write("《"+chapter_name+"》")
f.write('\n')
f.write('\n'.join(content))
f.write('\n')

python爬虫学习01--电子书爬取的更多相关文章

  1. Python爬虫学习之正则表达式爬取个人博客

    实例需求:运用python语言爬取http://www.eastmountyxz.com/个人博客的基本信息,包括网页标题,网页所有图片的url,网页文章的url.标题以及摘要. 实例环境:pytho ...

  2. Python爬虫学习笔记之爬取新浪微博

    import requests from urllib.parse import urlencode from pyquery import PyQuery as pq from pymongo im ...

  3. python爬虫:了解JS加密爬取网易云音乐

    python爬虫:了解JS加密爬取网易云音乐 前言 大家好,我是"持之以恒_liu",之所以起这个名字,就是希望我自己无论做什么事,只要一开始选择了,那么就要坚持到底,不管结果如何 ...

  4. Python爬虫:为什么你爬取不到网页数据

    前言: 之前小编写了一篇关于爬虫为什么爬取不到数据文章(文章链接为:Python爬虫经常爬不到数据,或许你可以看一下小编的这篇文章), 但是当时小编也是胡乱编写的,其实里面有很多问题的,现在小编重新发 ...

  5. Python爬虫实战二之爬取百度贴吧帖子

    大家好,上次我们实验了爬取了糗事百科的段子,那么这次我们来尝试一下爬取百度贴吧的帖子.与上一篇不同的是,这次我们需要用到文件的相关操作. 前言 亲爱的们,教程比较旧了,百度贴吧页面可能改版,可能代码不 ...

  6. Python爬虫实战一之爬取糗事百科段子

    大家好,前面入门已经说了那么多基础知识了,下面我们做几个实战项目来挑战一下吧.那么这次为大家带来,Python爬取糗事百科的小段子的例子. 首先,糗事百科大家都听说过吧?糗友们发的搞笑的段子一抓一大把 ...

  7. 转 Python爬虫实战二之爬取百度贴吧帖子

    静觅 » Python爬虫实战二之爬取百度贴吧帖子 大家好,上次我们实验了爬取了糗事百科的段子,那么这次我们来尝试一下爬取百度贴吧的帖子.与上一篇不同的是,这次我们需要用到文件的相关操作. 本篇目标 ...

  8. 转 Python爬虫实战一之爬取糗事百科段子

    静觅 » Python爬虫实战一之爬取糗事百科段子 首先,糗事百科大家都听说过吧?糗友们发的搞笑的段子一抓一大把,这次我们尝试一下用爬虫把他们抓取下来. 友情提示 糗事百科在前一段时间进行了改版,导致 ...

  9. python爬虫26 | 把数据爬取下来之后就存储到你的MySQL数据库。

    小帅b说过 在这几篇中会着重说说将爬取下来的数据进行存储 上次我们说了一种 csv 的存储方式 这次主要来说说怎么将爬取下来的数据保存到 MySQL 数据库 接下来就是 学习python的正确姿势 真 ...

随机推荐

  1. 13.Django-分页

    使用Django实现分页器功能 要使用Django实现分页器,必须从Django中导入Paginator模块 from django.core.paginator import Paginator 假 ...

  2. 将反向传播讲解的深入透彻的神一样的文章(numpy实现人工神经网络)

    为了完成机器学习课的项目,规定不许调tensorflow,pytorch这些包.可是要手工实现一个可训练的神经网络是非常困难的一件事,难点无他,就在于反向传播的实现.这不,我在网上发现了这篇文章.怎么 ...

  3. 《Redis开发与运维》

    第1章 初识Redis 1. Redis介绍: Redis是一种基于键值对(key-value)的NoSQL数据库. 与很多键值对数据库不同的是,Redis中的值可以是由string(字符串).has ...

  4. PN532模块连接-读卡失败原因

    第一步:点击发现NFC设备 第二步:点击读整卡:读取卡片内容. 若不成功,把UID卡移开,再放一次.再点第一步,显示发现NFC,再点第二步.反复操作,直到读取到为止.2-3次一般都会成功 . 相关软件 ...

  5. Consul入门初识

    Consul Consul是一个支持多数据中心分布式高可用的服务发现和配置共享的服务软件,由HashiCrop公司用Go语言开发,基于Mozilla Public License 2.0的协议进行开源 ...

  6. 八张图彻底了解JDK8 GC调优秘籍-附PDF下载

    目录 简介 分代垃圾回收器的内存结构 JDK8中可用的GC 打印GC信息 内存调整参数 Thread配置 通用GC参数 CMS GC G1参数 总结 简介 JVM的参数有很多很多,根据我的统计JDK8 ...

  7. python用直方图规定化实现图像风格转换

    以下内容需要直方图均衡化.规定化知识 均衡化:https://blog.csdn.net/macunshi/article/details/79815870 规定化:https://blog.csdn ...

  8. python 异常类型大全

    try except 处理异常真舒服!!!

  9. node+ajax实战案例(2)

    2.静态资源渲染 2.1.创建http服务器 var http = require('http'); var url = require('url'); var app = http.createSe ...

  10. JavaScript基础-即时函数(Immediate Functions)(017)

    1.即时函数的声明方法 即时函数(Immediate Functions)是一种特殊的JavaScript语法,可以使函数在定义后立即执行:(function () {    alert('watch ...