从网上下载小说_keywords:python、multiprocess
# -*- coding: utf-8 -*-
__author__ = "YuDian" from multiprocessing import Pool # Pool用来创建进程池
import os, time
from urllib import request # 访问网页
from bs4 import BeautifulSoup # 第三方库,能更好的对HTML进行解析 '''
基本思路:1.从一个盗版小说网站上得到一些小说的名字和对应的链接;
2.选定一本小说名,通过对应的链接得到小说的所有章节链接;
3.通过所有所有的章节链接通过对每个章节的网页进行分析,得到小说正文。分别存在不同的文档中(使用多进程)
4.将文档按顺序拼接,得到最终文档,删除中间文档。
''' def download(head, filename, ProNum, start, end, PageLinks): # 向函数传入请求头、文件名、进程序号、始末章节、章节链表
print(os.getpid()) # 打印该进程id
for page in range(start, end + 1):
PageUrl = PageLinks[page]
PageReq = request.Request(PageUrl, headers=head)
response = request.urlopen(PageReq)
PageHtml = BeautifulSoup(response, 'lxml') title = PageHtml.find('div', class_='entry-single').h1.string # 分析得到小说标题
print(title, 'is downloading...')
print(os.getpid())
if page == start:
f = open(filename + str(ProNum) + '.txt', 'w') # 小说名+进程序号作为文件名
f.write('\n' + title + '\n')
else:
f = open(filename + str(ProNum) + '.txt', 'a')
f.write('\n' + title + '\n')
text = PageHtml.find('div', id='booktext').children
for i in text:
if (i.find('div') == -1):
if len(i) > 1:
newstr = str(i).replace('\n', '').replace('\xa0', ' ').replace('\ue810', '').replace('\ue420',
'').replace(
'\ue2f0', '').replace('\ue0df', '') # 根据输出的情况手动将不能编码的字符进行转换
try: # 保证在遇到不能打印的字符时,程序能进行运行。
f.write(newstr)
except Exception as e:
print(e) # 第一步:从网站上得到所有的小说名字和对应链接 if __name__ == '__main__':
AllLinks = {} # AllLinks用来存放小说名称和对应链接
url = r'http://www.kushubao.com/xiaoshuodaquan/3.html' # 网站网址
HeadUrl = r'http://www.kushubao.com' # 因为从网址上爬到的小说链接只有后面的/xxxx所以要自己补全URL。
head = {} # 以浏览器的方式进行访问
head[
'User-Agent'] = 'Mozilla/5.0 (Linux; Android 4.1.1; Nexus 7 Build/JRO03D) AppleWebKit/535.19 (KHTML, like Gecko) Chrome/18.0.1025.166 Safari/535.19'
req = request.Request(url, headers=head)
response = request.urlopen(req) # 返回的response通过response.read().decode('uth-8')就可以输出网页的HTML
html = BeautifulSoup(response, 'lxml') # 将response变为BeautifulSoup能处理的对象
novellist = html.find(class_='novellist') # 定位到小说名和对应链接在的地方
novels = novellist.find_all('a') # 得到所有的小说名和链接在的HTML语句,.find_all()方法得到的是一个list
for novel in novels:
AllLinks[novel.string] = str(HeadUrl + novel.get('href')) # 第一步到这里结束。此时所有的小说名和对应的完整链接都存放在名为AllLinks的字典中。
#
# 第二步:通过指定小说名,从AllLinks中得到该小说的对应链接,然后下载所有的小说章节。 name = '神灵契约' # 指定的小说名称
NovelUrl = AllLinks[name]
NovelReq = request.Request(NovelUrl, headers=head)
PageLinks = [] # 列表,用来存放所有的小说章节链接。
# 不用字典的理由:因为元素在字典里面是无序排列的,在第三步要按顺序从低章到高章下载。所以直接用了一个list。反正章节名可以在没章里面搞到。
response = request.urlopen(NovelReq)
html = BeautifulSoup(response, 'lxml') # html 中放的就是有每章的名字和链接的BeautifulSoup对象。可以用html.pretty()进行查看
LinkTag = html.find('div', id='xslist')
PageList = LinkTag.find_all('a')
for page in PageList:
PageLinks.append(NovelUrl + page.get('href')) # 自此,第二步结束,得到的章节链接仿真了PageLinks的链表中。 # 第三步,多并程下载小说内容 ProcessNumber = 11 # 要开的进程数
p = Pool() # 创建进程池。由于参数缺省,默认为运行电脑的核数
StartTime = time.time() # 开始时间
StartPage = 0
for process in range(ProcessNumber): # 用来创建进程
if (process < ProcessNumber - 1):
EndPage = int(len(PageLinks) / ProcessNumber * (process + 1) - 1)
else:
EndPage = len(PageLinks) - 1
# 得到每个进程下载起始章节。
print('进程序号:', process + 1, '始末章节:%s--->%s' % (StartPage, EndPage))
p.apply_async(download, args=(head, name, process, StartPage, EndPage, PageLinks))
StartPage = EndPage + 1
p.close() # close和join要放到for循环外。
p.join()
EndTime = time.time()
print('Total run time=%.3f' % (EndTime - StartTime)) # 第三步结束。(download传入的参量太多了。) # 第4步:将所有分开的章节整合到一起,并删除临时章节。 wr = open(name + '.txt', 'w') # 最后存放的文件名
for i in range(ProcessNumber):
re = open(name + str(i) + '.txt', 'r')
lines = re.readlines()
wr.writelines(lines)
re.close()
wr.close()
# 文件合并完毕
for i in range(ProcessNumber):
try:
os.remove(name + str(i) + '.txt') # 移除文件
except Exception as e:
print('文件:', name + str(i) + '.txt', '无法删除')
从网上下载小说_keywords:python、multiprocess的更多相关文章
- 批量下载小说网站上的小说(python爬虫)
随便说点什么 因为在学python,所有自然而然的就掉进了爬虫这个坑里,好吧,主要是因为我觉得爬虫比较酷,才入坑的. 想想看,你可以批量自动的采集互联网上海量的资料数据,是多么令人激动啊! 所以我就被 ...
- python爬虫之小说网站--下载小说(正则表达式)
python爬虫之小说网站--下载小说(正则表达式) 思路: 1.找到要下载的小说首页,打开网页源代码进行分析(例:https://www.kanunu8.com/files/old/2011/244 ...
- 使用Python开发小说下载器,不再为下载小说而发愁 #华为云·寻找黑马程序员#
需求分析 免费的小说网比较多,我看的比较多的是笔趣阁.这个网站基本收费的章节刚更新,它就能同步更新,简直不要太叼.既然要批量下载小说,肯定要分析这个网站了- 在搜索栏输入地址后,发送post请求获取数 ...
- 【Python 爬虫系列】从某网站下载小说《鬼吹灯》,正则解析html
import re import urllib.request import urllib.parse import urllib.error as err import time # 下载 seed ...
- 自己封装的Windows7 64位旗舰版,微软官网上下载的Windows7原版镜像制作,绝对纯净版
MSDN官网上下载的Windows7 64位 旗舰版原版镜像制作,绝对纯净版,无任何精简,不捆绑任何第三方软件.浏览器插件,不含任何木马.病毒等. 集成: 1.Office2010 2.DirectX ...
- 网上下载的CHM帮助文件打不开的解决办法。
我的机器 装的是 Windows server 2008 操作系统.他的安全性比较高. 我在网上下载了一个 CHM 帮助文档.结果打不开. 现象: 打开时 ,提示 安全警告, 提示:来自Interne ...
- (原)下载pubFig的python代码
转载请注明出处: http://www.cnblogs.com/darkknightzh/p/5715305.html pubFig数据库网址: http://www.cs.columbia.edu/ ...
- AutoPy首页、文档和下载 - 跨平台的Python GUI工具包 - 开源中国社区
AutoPy首页.文档和下载 - 跨平台的Python GUI工具包 - 开源中国社区 AutoPy是一个简单跨平台的 Python GUI工具包,可以控制鼠标,键盘,匹配颜色和屏幕上的位图.使用纯A ...
- 生成网上下载的EF项目对应的数据库
生成网上下载的EF项目对应的数据库 网上下载的用EF做的小项目,结果没有配有数据库的,用VS打开来看了一下,看到Migrations文件夹,应该可以用EF命令来生成这个数据库了 打开appsettin ...
随机推荐
- Python学习---django知识补充之CBV
Django知识补充之CBV Django: url --> def函数 FBV[function based view] 用函数和URL进行匹配 url --> ...
- oracle sql练习 菜鸟入门!
进入公司 ,首先是进行SQL培训 一下是针对oracle的emp与dept表进行的基础查询 --1.选择部门30中的所有员工: ; --2.列出所有办事员(CLERK)的姓名,编号和部门编号: sel ...
- Hibernate 一次查询分多次返回 避免内存溢出
public void grpcGpioDevice(StreamObserver<NI_GetAllDeviceListResponse> responseObserver, Map&l ...
- Swap是个什么东东?
要明白这个首先要知道什么是保护模式和实模式.以前的操作系统是实模式,例如dos.每个时候只有一个进程在跑,这个进程使用全部的物理内存.后来发展到保护模式,分时多进程.一个CPU上跑多个进程, 但进程不 ...
- Angular2 Pipe
AngularJs 1.x 中使用filters来帮助我们转换templates中的输出,但在Angular2中使用的是pipes,以下展示Angular 1.x and Angular 2中filt ...
- 问题:alias设置与删除
新建alias条目 临时 alias monitor='gnome-system-monitor' 永久 可以在家目录下,新建 .bash_aliases 文件,然后在其中加上你想要的替换的比 ...
- 面向对象的JavaScript --- 原型模式和基于原型继承的JavaScript对象系统
面向对象的JavaScript --- 原型模式和基于原型继承的JavaScript对象系统 原型模式和基于原型继承的JavaScript对象系统 在 Brendan Eich 为 JavaScrip ...
- 历史在重演:从KHTML到WebKit,再到Blink
http://36kr.com/p/202396.html 上周四,Google宣布从WebKit 分支出自己的浏览器渲染引擎 Blink.很多人觉得这像是晴天霹雳,或者甚至是迟到的愚人节笑话,但是其 ...
- 剑指offer 最小的k个数 、 leetcode 215. Kth Largest Element in an Array 、295. Find Median from Data Stream(剑指 数据流中位数)
注意multiset的一个bug: multiset带一个参数的erase函数原型有两种.一是传递一个元素值,如上面例子代码中,这时候删除的是集合中所有值等于输入值的元素,并且返回删除的元素个数:另外 ...
- 20165302 实验一 java开发环境的熟悉
20165302实验一 java开发环境的熟悉 一,实验内容与步骤 1.命令行下java程序开发 ①待编译运行代码 package csj; import java.util.Scanner; pub ...