python 3 爬取某小说网站小说,注释详细
目标:每一个小说保存成一个txt文件
思路:获取每个小说地址(图一),进入后获取每章节地址(图二),然后进入获取该章节内容(图三)保存文件中。循环
效果图:
每一行都有注释,不多解释了
import requests
from bs4 import BeautifulSoup
import os
if __name__ == '__main__':
# 要下载的网页
url = 'https://www.biqubao.com/quanben/'
# 网站根网址
root_url = 'https://www.biqubao.com'
# 保存本地路径
path = 'F:\\python\\txt'
# 解析网址
req = requests.get(url)
# 设置编码,浏览器查看网站编码:F12,控制开输入document.characterSet回车即可查看
req.encoding = 'gbk'
# 获取网页所有内容
soup = BeautifulSoup(req.text, 'html.parser')
# 查找网页中div的id为main的标签
list_tag = soup.div(id="main")
# 查看div内所有里标签
li = list_tag[0](['li'])
# 删除第一个没用的标签
del li[0]
# 循环遍历
for i in li:
# 获取到a标签间的内容---小说类型
txt_type = i.a.string
# 获取a标签的href地址值---小说网址
short_url = (i(['a'])[1].get('href'))
# 获取第三个span标签的值---作者
author = i(['span'])[3].string
# 获取网页设置网页编码
req = requests.get(root_url + short_url)
req.encoding = 'gbk'
# 解析网页
soup = BeautifulSoup(req.text, "html.parser")
list_tag = soup.div(id="list")
# 获取小说名
name = list_tag[0].dl.dt.string
print("类型:{} 短址:{} 作者:{} 小说名:{}".format(txt_type, short_url, author, name))
# 创建同名文件夹
# paths = path + '\\' + name
if not os.path.exists(path):
# 获取当前目录并组合新目录
# os.path.join(path, name)
os.mkdir(path)
# 循环所有的dd标签
for dd_tag in list_tag[0].dl.find_all('dd'):
# 章节名
zjName = dd_tag.string
# 章节地址
zjUrl = root_url + dd_tag.a.get('href')
# 访问网址爬取章节内容
req2 = requests.get(zjUrl)
req2.encoding = 'gbk'
zj_soup = BeautifulSoup(req2.text, "html.parser")
content_tag = zj_soup.div.find(id="content")
# 把空格内容替换成换行
text = str(content_tag.text.replace('\xa0', '\n'))
text.replace('\ufffd', '\n')
# 写入文件操作'a'追加
with open(path + "\\" + name + ".txt", 'a') as f:
f.write('\n' + '\n' + zjName)
f.write(text)
print("{}------->写入完毕".format(zjName))
python 3 爬取某小说网站小说,注释详细的更多相关文章
- Python轻松爬取Rosimm写真网站全部图片
RosimmImage 爬取Rosimm写真网站图片 有图有真相 def main_start(url): """ 爬虫入口,主要爬取操作 ""&qu ...
- Python爬虫爬取美剧网站
一直有爱看美剧的习惯,一方面锻炼一下英语听力,一方面打发一下时间.之前是能在视频网站上面在线看的,可是自从广电总局的限制令之后,进口的美剧英剧等貌似就不在像以前一样同步更新了.但是,作为一个宅diao ...
- Python——Scrapy爬取链家网站所有房源信息
用scrapy爬取链家全国以上房源分类的信息: 路径: items.py # -*- coding: utf-8 -*- # Define here the models for your scrap ...
- python爬虫爬取ip记录网站信息并存入数据库
import requests import re import pymysql #10页 仔细观察路由 db = pymysql.connect("localhost",&quo ...
- Python爬虫爬取全书网小说,程序源码+程序详细分析
Python爬虫爬取全书网小说教程 第一步:打开谷歌浏览器,搜索全书网,然后再点击你想下载的小说,进入图一页面后点击F12选择Network,如果没有内容按F5刷新一下 点击Network之后出现如下 ...
- Jsoup-基于Java实现网络爬虫-爬取笔趣阁小说
注意!仅供学习交流使用,请勿用在歪门邪道的地方!技术只是工具!关键在于用途! 今天接触了一款有意思的框架,作用是网络爬虫,他可以像操作JS一样对网页内容进行提取 初体验Jsoup <!-- Ma ...
- bs4爬取笔趣阁小说
参考链接:https://www.cnblogs.com/wt714/p/11963497.html 模块:requests,bs4,queue,sys,time 步骤:给出URL--> 访问U ...
- Python 爬取所有51VOA网站的Learn a words文本及mp3音频
Python 爬取所有51VOA网站的Learn a words文本及mp3音频 #!/usr/bin/env python # -*- coding: utf-8 -*- #Python 爬取所有5 ...
- Python开发爬虫之BeautifulSoup解析网页篇:爬取安居客网站上北京二手房数据
目标:爬取安居客网站上前10页北京二手房的数据,包括二手房源的名称.价格.几室几厅.大小.建造年份.联系人.地址.标签等. 网址为:https://beijing.anjuke.com/sale/ B ...
- python爬虫学习之使用BeautifulSoup库爬取开奖网站信息-模块化
实例需求:运用python语言爬取http://kaijiang.zhcw.com/zhcw/html/ssq/list_1.html这个开奖网站所有的信息,并且保存为txt文件和excel文件. 实 ...
随机推荐
- ubuntu16.04+cuda9+cudnn7+tensorflow+pycharm环境搭建
安装环境:ubuntu16.04+cuda9+cudnn7+tensorflow+pycharm 1)前期搭建过程主要是按照这篇博文,对于版本选择,安装步骤都讲得很详细,亲测有效! https://b ...
- 分布式监控系统开发【day38】:监控trigger表结构设计(一)
一.需求讨论 1.zabbix触发器的模板截图 1.zabbix2.4.7 2.zabbix3.0 2.模板与触发器关联的好处 好处就是可以批量处理,比如我说我有1000机器都要监控cpu.内存.IO ...
- 工作任务: 批量处理wav音频文件--shell脚本
#!/bin/bash # 处理音频 deal_with_wav() { ) do ) do # gd1_music ./tool/fixbeam2 -c res/fixbeam2.bin -b -i ...
- 第六节:WebApi的部署方式(自托管)
一. 简单说明 开篇就介绍过WebApi和MVC相比,其中优势之一就是WebApi可以不依赖于IIS部署,可以自托管,当然这里指的是 .Net FrameWork 下的 WebApi 和 MVC 相比 ...
- Spring Security 之API 项目安全验证(基于basic-authentication)
===================================Basic Authorization 规范===================================Request ...
- .NET面试题系列(十七)前端面试
JavaScript js如何实现继承 CSS 行内元素和块状元素的区别 CSS让2个DIV在同一行显示的解决方法 在CSS中,div属于块级元素,每个块级元素默认占一行高度,一行内添加一个块级 ...
- Javaweb学习笔记——(二十七)——————泛型、泛型的通配符、反射泛型信息、反射注解、注解
泛型 1.泛型类:具有一个或多个类型变量的类,称之为泛型类 class A<T>{ } 2.在创建泛型实例时,需要为其类型变量赋值 A<String> a = new ...
- Chrome firefox ie等浏览器空格 宽度不一样
用半角空格 或者全角空格 相当于半格中文字符的宽度, 相当于一个中文字符宽度. 注:在chrome中两个 占一个汉字的宽度;,而在IE.firefox中四个 才占一个汉字的宽度.
- 使用系统用户登录Oracle
如果数据库安装不在本机上,@后面加的是服务名或IP地址 如果是sys用户的话,它具有管理员的权限,要使用sysdba或sysoper权限来登录oracle工具.
- P5290 [十二省联考2019]春节十二响
题目地址:P5290 [十二省联考2019]春节十二响 骗分方法 如果你实在一点思路也没有,暴力都不会打,那么请考虑一下骗分. 方法一 输出所有 \(M\) 的和. 期望得分:0分. 实际还有5分 方 ...