前言

本文的文字及图片来源于网络,仅供学习、交流使用,不具有任何商业用途,版权归原作者所有,如有问题请及时联系我们以作处理。
作者:Botreechan 

1.进入地址我们可以发现,页面有着非常整齐的目录,那么网页源代码中肯定也有非常规律的目录,进去看看吧。如果你看不懂,建议先去小编的Python交流.裙 :一久武其而而流一思(数字的谐音)转换下可以找到了,里面有最新Python教程项目可拿,不懂的问题多跟里面的人交流,进步更快哦!

2.很明显猜对了,源代码中确实有这很明显的规律,每一章节都有着及其固定的模板:

但是这时候我们并找不到深层的规律,那么下一步我们尝试下播放一条音频,但不仅仅是播放,更重要的是要抓包!!!

3.打开浏览器抓包工具(F12),点击任意一条音频,这里我就以第一条为例了。

上面两张图是我抓取到的getURL和返回的json,可以看出返回的内容里确实有三条音频地址,复制到浏览器可以直接播放,听一听就是我们要的宝贝。重点来了,getURL中我圈出来的看着是不是很眼熟?不错,那个就是网页源代码里面每个章节URL里的一个值,而这个值就是每个章节的sound_id,再按照上面的步骤,操作其他章节看看,也是一样的规律。那么思路很清晰了,我们只需要把每个章节的ID的sound_id替换到getURL中不就可以获取到每个章节的音频了么?

4.开始写代码:

  1.  
    import requests
  2.  
    import re
  3.  
     
  4.  
    #获取网页源代码&解决反爬
  5.  
    header = {'User-Agent':'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/63.0.3239.132 Safari/537.36'}
  6.  
    html = requests.get('http://www.ximalaya.com/4228109/album/268522/',headers=header)
  7.  
    print(html.text)
  8.  
    reg = '<a class="title" href="/4228109/sound/(.*?)/" hashlink title="(.*?)">'
  9.  
    name_url = re.findall(reg,html.text)
  10.  
    print(name_url)

这个时候我们可以看到,网页每个章节和对应sound_id都被找出来了。

5.返回的有没有很乱?确实很乱,但是返回的都是元组类型,那么我们来定义一个ID和标题吧。

  1.  
    for sound_id,title in name_url:
  2.  
    print(sound_id,title)

看下效果,有没有耳目一新:

6.好了,回到最开始我们抓包的时候,我们的音频都在一个抓取的json里,开始拼接咱们的json URL

  1.  
    json_url = 'http://www.ximalaya.com/tracks/'+str(sound_id)+'.json'
  2.  
    print(title,json_url)

7.既然已经获取到了每个URL,那么现在去json里面取最终的音频URL吧

首先去请求下每个音频的json URL,然后正在匹配出最终的URL吧,另外如果你刚学不久,建议如果你看不懂,建议先去小编的Python交流.裙 :一久武其而而流一思(数字的谐音)转换下可以找到了,里面有最新Python教程项目可拿,不懂的问题多跟里面的人交流,进步更快哦!

  1.  
    #获取每个音频的json URL
  2.  
    json_url = 'http://www.ximalaya.com/tracks/'+str(sound_id)+'.json'
  3.  
    # print(json_url)
  4.  
     
  5.  
    result = requests.get(json_url,headers=header)
  6.  
    reg1 = '"play_path_64":"(.*?)"'
  7.  
     
  8.  
    #最终的音频URL数列
  9.  
    sound_url = re.findall(reg1,result.text)
  10.  
    #打印音频URL数列
  11.  
    print(title,sound_url)

8.好了,URL都拿到了,可以去下载了。。。

最后,贴上完整代码:

  1.  
    import requests
  2.  
    import re
  3.  
    import time
  4.  
     
  5.  
    #获取网页源代码&解决反爬
  6.  
    header = {'User-Agent':'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/63.0.3239.132 Safari/537.36'}
  7.  
    html = requests.get('http://www.ximalaya.com/4228109/album/268522/',headers=header)
  8.  
    # print(html.text)
  9.  
    reg = '<a class="title" href="/4228109/sound/(.*?)/" hashlink title="(.*?)">'
  10.  
    name_url = re.findall(reg,html.text)
  11.  
    # print(name_url)
  12.  
    for sound_id,title in name_url:
  13.  
    # print(sound_id,title)
  14.  
     
  15.  
    #获取每个音频的json URL
  16.  
    json_url = 'http://www.ximalaya.com/tracks/'+str(sound_id)+'.json'
  17.  
    # print(json_url)
  18.  
     
  19.  
    #正则匹配出ID和音频URL
  20.  
    result = requests.get(json_url,headers=header)
  21.  
    reg1 = '"play_path_64":"(.*?)"'
  22.  
     
  23.  
    #最终的音频URL数列
  24.  
    sound_url = re.findall(reg1,result.text)
  25.  
    #打印音频URL数列
  26.  
    # print(sound_url)
  27.  
    # print(title,sound_url[0])
  28.  
     
  29.  
    data = requests.get(sound_url[0])
  30.  
    with open(title+'.m4a','wb') as f:
  31.  
    f.write(data.content)
  32.  
    print('下载完成:',title)
  33.  
    time.sleep(1)

Python爬虫--喜马拉雅三国音频爬取的更多相关文章

  1. Python爬虫实战二之爬取百度贴吧帖子

    大家好,上次我们实验了爬取了糗事百科的段子,那么这次我们来尝试一下爬取百度贴吧的帖子.与上一篇不同的是,这次我们需要用到文件的相关操作. 前言 亲爱的们,教程比较旧了,百度贴吧页面可能改版,可能代码不 ...

  2. Python爬虫实战一之爬取糗事百科段子

    大家好,前面入门已经说了那么多基础知识了,下面我们做几个实战项目来挑战一下吧.那么这次为大家带来,Python爬取糗事百科的小段子的例子. 首先,糗事百科大家都听说过吧?糗友们发的搞笑的段子一抓一大把 ...

  3. 转 Python爬虫实战二之爬取百度贴吧帖子

    静觅 » Python爬虫实战二之爬取百度贴吧帖子 大家好,上次我们实验了爬取了糗事百科的段子,那么这次我们来尝试一下爬取百度贴吧的帖子.与上一篇不同的是,这次我们需要用到文件的相关操作. 本篇目标 ...

  4. 转 Python爬虫实战一之爬取糗事百科段子

    静觅 » Python爬虫实战一之爬取糗事百科段子 首先,糗事百科大家都听说过吧?糗友们发的搞笑的段子一抓一大把,这次我们尝试一下用爬虫把他们抓取下来. 友情提示 糗事百科在前一段时间进行了改版,导致 ...

  5. python爬虫学习01--电子书爬取

    python爬虫学习01--电子书爬取 1.获取网页信息 import requests #导入requests库 ''' 获取网页信息 ''' if __name__ == '__main__': ...

  6. python爬虫:了解JS加密爬取网易云音乐

    python爬虫:了解JS加密爬取网易云音乐 前言 大家好,我是"持之以恒_liu",之所以起这个名字,就是希望我自己无论做什么事,只要一开始选择了,那么就要坚持到底,不管结果如何 ...

  7. Python爬虫:为什么你爬取不到网页数据

    前言: 之前小编写了一篇关于爬虫为什么爬取不到数据文章(文章链接为:Python爬虫经常爬不到数据,或许你可以看一下小编的这篇文章), 但是当时小编也是胡乱编写的,其实里面有很多问题的,现在小编重新发 ...

  8. Python爬虫:通过关键字爬取百度图片

    使用工具:Python2.7 点我下载 scrapy框架 sublime text3 一.搭建python(Windows版本) 1.安装python2.7 ---然后在cmd当中输入python,界 ...

  9. Python爬虫小实践:爬取任意CSDN博客所有文章的文字内容(或可改写为保存其他的元素),间接增加博客访问量

    Python并不是我的主业,当初学Python主要是为了学爬虫,以为自己觉得能够从网上爬东西是一件非常神奇又是一件非常有用的事情,因为我们可以获取一些方面的数据或者其他的东西,反正各有用处. 这两天闲 ...

随机推荐

  1. maven的项目结构

    1.标准目录结构: src -main       –bin 脚本库       –java java源代码文件       –resources 资源库,会自动复制到classes目录里       ...

  2. CentOS安装图解(在VMware 8上安装)

    近期准备学习一下CentOS,打算先在VMware上装一个用于初步了解. 整体步骤如下: 一.获取CentOS安装镜像.可以从以下几个地方获取,顺便提一句,我是从163下载的. 1.CentOS的官方 ...

  3. 一分钟带你了解下MyBatis的动态SQL!

    MyBatis的强大特性之一便是它的动态SQL,以前拼接的时候需要注意的空格.列表最后的逗号等,现在都可以不用手动处理了,MyBatis采用功能强大的基于OGNL的表达式来实现,下面主要介绍下. 一. ...

  4. open-falcon监控系统

    官方文档 https://book.open-falcon.org/zh/intro/index.html 一.Open-Falcon介绍 1.监控系统,可以从运营级别(基本配置即可),以及应用级别( ...

  5. nyoj 655-光棍的yy (python, 未A)

    655-光棍的yy 内存限制:64MB 时间限制:1000ms 特判: No 通过数:4 提交数:7 难度:2 题目描述: yy经常遇见一个奇怪的事情,每当他看时间的时候总会看见11:11,这个很纠结 ...

  6. nyoj 844-A+B Problem(V) (string[::-1] 字符串反转)

    844-A+B Problem(V) 内存限制:64MB 时间限制:1000ms 特判: No 通过数:14 提交数:17 难度:1 题目描述: 做了A+B Problem之后,Yougth感觉太简单 ...

  7. Python常用模块之os.path

    os.path.abspath(path) 输入相对路径,返回绝对路径 Python 3.7.0 (v3.7.0:1bf9cc5093, Jun 27 2018, 04:59:51) [MSC v.1 ...

  8. VLAN实验(3)

    1.选择2台S3700和5台pc机,并根据实验编址完成此拓扑图. 2.启动设备,检查设备的连通性: 由于现在我们还没有划分VLAN,这5台PC,还在同一个VLAN中,现在我们启动所有的设备,这是所有的 ...

  9. InfluxDB 聚合函数实用案例

    InfluxDB 聚合函数实用案例 文章大纲 InfluxDB 简介 InfluxDB是GO语言编写的分布式时间序列化数据库,非常适合对数据(跟随时间变化而变化的数据)的跟踪.监控和分析.在我们的项目 ...

  10. opencv 3 core组件进阶(2 ROI区域图像叠加&图像混合;分离颜色通道、多通道图像混合;图像对比度,亮度值调整)

    ROI区域图像叠加&图像混合 #include <opencv2/core/core.hpp> #include <opencv2/highgui/highgui.hpp&g ...