下载视频:

 1 from bs4 import BeautifulSoup
2 import requests
3 import re
4 import urllib
5
6
7 def callbackfunc(blocknum, blocksize, totalsize):
8 '''回调函数
9 @blocknum: 已经下载的数据块
10 @blocksize: 数据块的大小
11 @totalsize: 远程文件的大小
12 '''
13 percent = 100.0 * blocknum * blocksize / totalsize
14 if percent > 100:
15 percent = 100
16 print ("%.2f%%"% percent)
17
18
19
20 ur = 'http://www.budejie.com/video/'
21
22 def get_htmls(url):
23 headers = {'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/75.0.3770.142 Safari/537.36'}
24 html = requests.get(url,headers=headers)
25 #print(type(html.text))
26 soup =BeautifulSoup(html.text,'html.parser')
27 result1 = soup.find(attrs={'class':'j-video-c','data-title':True})
28 result2 = soup.find(attrs={'class': 'j-video', 'data-mp4': True})
29 nam = result1.get('data-title')
30 url = result2.get('data-mp4')
31 local = 'e:\\'+str(nam)+'.mp4'
32 urllib.request.urlretrieve(url, local, callbackfunc)
33
34 if __name__ == '__main__':
35 get_htmls(ur)

下载小说:

 1 from bs4 import BeautifulSoup
2 import requests
3 import re
4 from openpyxl import load_workbook
5 from openpyxl.utils import get_column_letter
6
7 #这一部分是存链接的
8 '''
9 # 设置文件 mingc
10 addr = "1.xlsx"
11 # 打开文件
12 wb = load_workbook(addr)
13 # 创建一张新表
14 ws = wb.create_sheet()
15 # 第一行输入
16 #ws.append(['TIME', 'TITLE', 'A-Z'])
17 ws['A1'] = '章节'
18 ws['B1'] = '链接
19 '''
20 links = []
21 ur = 'https://www.qb5200.tw/xiaoshuo/2/2155/'
22 def get_one_page(url,ok):
23 headers = {
24
25 'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/64.0.3282.140 Safari/537.36 Edge/18.17763'}
26
27 html = requests.get(url,headers=headers)
28 html.encoding = 'gbk'
29 #print(html.content)
30 if ok == True:
31 get_parsing(html)
32 else :
33 return html
34
35 def get_parsing(html):
36 soup = BeautifulSoup(html.content,'html.parser')
37 dd = soup.findAll(['dt',['dd']])
38 result = False
39
40 #counts =2
41 co = 0
42 for one in dd:
43 #print(type(one))
44 if one.string=='《龙王传说》正文卷':
45 #ws.title = one.string
46 result = True
47 if result == True and one.name == 'dd':
48 link = one.a.get('href')
49 links.append(link) #注意这里是传入元组、列表、字典
50 '''
51 st = one.a.string
52 data = [++co,ur+link]
53 ws.append(data)
54 '''
55
56 def get_htmls():
57 i=1000
58 results = links[1000:]
59 for link in results:
60 i+=1
61 url = ur+link
62 path='龙3.txt'
63 html = get_one_page(url,False)
64 soup = BeautifulSoup(html.content, 'html.parser')
65 name = soup.find(attrs={'class':'content','id':False})
66 names = name.h1.string
67 div = soup.find('div',attrs={'class':'showtxt'})
68 with open(path,'a',encoding='utf8') as f:
69 f.write(names + '\n')
70 for string in div.stripped_strings:
71 f.write(string+'\n')
72
73 if i%10 == 0:
74 print(i)
75 if i==1300:
76 break
77
78
79
80 if __name__ == '__main__':
81 get_one_page('https://www.qb5200.tw/xiaoshuo/2/2155/',True)
82 #wb.save(addr)
83 get_htmls()

python爬虫下载小视频和小说(基础)的更多相关文章

  1. (Python基础教程之二十二)爬虫下载网页视频(video blob)

    Python基础教程 在SublimeEditor中配置Python环境 Python代码中添加注释 Python中的变量的使用 Python中的数据类型 Python中的关键字 Python字符串操 ...

  2. 小白学 Python 爬虫(17):Requests 基础使用

    人生苦短,我用 Python 前文传送门: 小白学 Python 爬虫(1):开篇 小白学 Python 爬虫(2):前置准备(一)基本类库的安装 小白学 Python 爬虫(3):前置准备(二)Li ...

  3. 小白学 Python 爬虫(8):网页基础

    人生苦短,我用 Python 前文传送门: 小白学 Python 爬虫(1):开篇 小白学 Python 爬虫(2):前置准备(一)基本类库的安装 小白学 Python 爬虫(3):前置准备(二)Li ...

  4. python爬虫下载文件

    python爬虫下载文件 下载东西和访问网页差不多,这里以下载我以前做的一个安卓小游戏为例 地址为:http://hjwachhy.site/game/only_v1.1.1.apk 首先下载到内存 ...

  5. Python爬虫爬取全书网小说,程序源码+程序详细分析

    Python爬虫爬取全书网小说教程 第一步:打开谷歌浏览器,搜索全书网,然后再点击你想下载的小说,进入图一页面后点击F12选择Network,如果没有内容按F5刷新一下 点击Network之后出现如下 ...

  6. 小白学 Python 爬虫(11):urllib 基础使用(一)

    人生苦短,我用 Python 前文传送门: 小白学 Python 爬虫(1):开篇 小白学 Python 爬虫(2):前置准备(一)基本类库的安装 小白学 Python 爬虫(3):前置准备(二)Li ...

  7. 小白学 Python 爬虫(12):urllib 基础使用(二)

    人生苦短,我用 Python 前文传送门: 小白学 Python 爬虫(1):开篇 小白学 Python 爬虫(2):前置准备(一)基本类库的安装 小白学 Python 爬虫(3):前置准备(二)Li ...

  8. 小白学 Python 爬虫(13):urllib 基础使用(三)

    人生苦短,我用 Python 前文传送门: 小白学 Python 爬虫(1):开篇 小白学 Python 爬虫(2):前置准备(一)基本类库的安装 小白学 Python 爬虫(3):前置准备(二)Li ...

  9. 小白学 Python 爬虫(14):urllib 基础使用(四)

    人生苦短,我用 Python 前文传送门: 小白学 Python 爬虫(1):开篇 小白学 Python 爬虫(2):前置准备(一)基本类库的安装 小白学 Python 爬虫(3):前置准备(二)Li ...

随机推荐

  1. 利用sql_tuning_Advisor调优sql

    1.赋权给调优用户 grant ADVISOR to xxxxxx; 2.创建调优任务 使用sql_text创建 DECLARE my_task_name VARCHAR2 (30); my_sqlt ...

  2. USB充电限流芯片,输出短路关闭,过压关闭

    PW1503,PW1502是超低RDS(ON)开关,具有可编程的电流限制,以保护电源源于过电流和短路保护.它具有超温保护以及反向闭锁功能. PW1503,PW1502采用薄型(1毫米)5针薄型SOT2 ...

  3. 【Android】关于连续多次点击控件的控制方案(新建监听类)

    参考:防止Android过快点击造成多次事件的三种方法_胖胖的博客-CSDN博客 实现逻辑很简单: 设置限定时间 在用户点击时开始计时 若计时未超过限定时间,则不允许触发点击事件 因还未学习过Rxja ...

  4. Nginx报504 gateway timeout错误的解决方法(小丑搞笑版。。。)

    一.今天登录我的网站,突然发现报了下面的一个错误: 我的第一反应是:超时了应该是Nginx代理没有设置超时时间,默认的超时时间估计太小了,然后就按照正常的方式用Xshell连接服务器,应该是网络或者是 ...

  5. 查看内核打印信息指令dmesg

    linux系统启动的时候打印的的信息非常重要,有时候需要看这些信息但是又不想重启,可以用dmesg这条指令.

  6. 试玩 GOWOG ,初探 OpenAI(使用 NeuroEvolution 神经进化)与 Golang 多人在线游戏开发

    GOWOG: 原项目:https://github.com/giongto35/gowog 我调整过的:https://github.com/Kirk-Wang/gowog GOWOG 是一款迷你的, ...

  7. 手把手做一个基于vue-cli的组件库(上篇)

    基于vue-cli4的ui组件库,先贴个最终效果吧,步骤有点多,准备分上下篇,上篇:如何做一个初步的组件.下篇:编写说明文档及页面优化.开工. GitHub源码地址:https://github.co ...

  8. gradles理解和文件配置

    gradle gradle tasks :查看所有的taske命令 bootJar:打包,讲项目的所有依赖和主工程代码打包,一个可直接执行的一个包,不需要tomcat运行 gradle使用bootja ...

  9. https://dev.mysql.com/doc/refman/8.0/en/savepoint.html

    https://dev.mysql.com/doc/refman/8.0/en/savepoint.html

  10. (Shell)Shell命令整理

    目录 常用命令 1. 上传.下载 2. 删除文件和文件夹 3. 目录操作 4. 文件的操作 4.vim 为新添加的文件后缀支持语法高亮 常用命令 1. 上传.下载 上传文件:rz,然后回车弹出上传文件 ...