一、写在前面

最近看新闻说圣城家园(SCG)倒了,之前BT天堂倒了,暴风影音也不行了,可以说看个电影越来越费力,国内大厂如企鹅和爱奇艺最近也出现一些幺蛾子,虽然目前版权意识虽然越来越强,但是很多资源在这些主流视频网站上面依然没有,我平时看电影又习惯下载下来再看,所以每次看电影找资源就很麻烦,花了点时间,于是就有了这个程序。

二、目的

输入一部电影的名字,帮我到BT之家上面看看有没有,如果有就把下载链接复制给我。

三、设计思路

本来想的是直接爬取首页最近发布的电影,然后取判断有没有,后来想了一下,为什么不直接使用网站的搜索功能呢?

四、开始爬虫

4.1.分析网站

打开网站搜索一个结果,发现在网址里面直接修改链接的内容就能到达搜索页面,那这样就更简单。

先让用户输入一部电影的名字,直接生成链接。

# 要求输入电影名
inputname = input('\n' + '请输入您要搜索的电影:') # 链接是用网站的搜索功能
url = "http://www.6btbtt.com/search-index-keyword-" + inputname + ".htm"

接下来再看搜索结果是什么样的,使用审查元素看看,就会看到搜索结果里面电影名字和链接会在一个a标签里面,类型为subject_link thread-old read

至此网站就分析完成了

4.2.开始爬取过程

刚才已经得到了电影名和网站,那么下面直接获得搜索结果页面的内容就行,用requests获取内容,获取后顺便用beautifulsoup解析一下,解析后的东西就是有格式的,这样才能进行下一步操作。

# 获取网页内容并用beautifulsoup解析一下
soup = BeautifulSoup(requests.get(url).text,'lxml') # 给出找到第一个结果,网站搜索结果就是把最新的排在前面,所以一个结果就够了
movies = soup.find('a','subject_link thread-old')

然而现在我们是得到一段内容,它不光包含电影标题和链接,还包含其他的东西,我们要做的就是把电影标题和链接分别提取出来。

# 直接输出电影和链接
try:
link = movies.get('href')
name = movies.text ####这里用的是text,因为标签下面还有标签,是string无法获取文本内容
print('\n' + name)
print(link + '\n')
except:
print("没有找到这部电影或程序发生未知错误")

这里用try和except来捕捉程序反馈,就是说假如获取的内容有问题,那程序不崩溃,就执行其他的或者进行下一步操作

至此,我们已经得到了电影和链接了,爬虫过程也算结束了。

4.3判断爬取结果和用户输入

由于电影标题出来包含真正的电影名还包含清晰度、年代、格式等等这些信息,通常是这样的

[BT下载][小丑][BD- MKV/2.12GB][英语中英字幕][1080P][DC年度精彩大片蓝光版]

这些我们都不要,在把它分割出来,单独取出电影名字,分割方法就是前面是 “下载][” 后面是“][”,取中间文本就可以。

# 这是用于从网页的电影标题里面分割出真正的电影名
def get_str_btw(s,f,b):
par = s.partition(f)
return (par[2].partition(b))[0][:] try:
mname = (get_str_btw(name,"下载][","]["))
except:
print("无法匹配搜索结果")

单独取出电影名字后进行比对,这里只是简单地进行文字匹配,本来应该可以多爬取几个结果,然后模糊搜索进行匹配的。

# 判断输入的和获取到的电影名字是否匹配
if mname == inputname:
print("电影有啦!链接已复制!祝您观影愉快!" + '\n')
pyperclip.copy(link)
else:
print("我给您找到了这个!")

最后再加上一个让程序运行完等一下的命令

# 程序执行完不要马上关闭窗口
os.system("pause")

至此,这个程序就完成了。

运行截图

五:注意事项

5.1.导入模块的时候如果发现不能导入,可能是缺少c++运行库,去下载官方工具安装就行;

5.2网站里面看似相同的元素标签可能不同,比如那个热门电影和新电影标签不一样,一开始遍历爬取的时候发现总是报错;

5.3一定要用tryexcept来避免出现意外;

程序可能没有意义,但生命不息,折腾不止。

Python爬虫爬取BT之家找电影资源的更多相关文章

  1. 如何利用python爬虫爬取爱奇艺VIP电影?

    环境:windows    python3.7 思路: 1.先选取你要爬取的电影 2.用vip解析工具解析,获取地址 3.写好脚本,下载片断 4.将片断利用电脑合成 需要的python模块: ##第一 ...

  2. python爬虫—爬取英文名以及正则表达式的介绍

    python爬虫—爬取英文名以及正则表达式的介绍 爬取英文名: 一.  爬虫模块详细设计 (1)整体思路 对于本次爬取英文名数据的爬虫实现,我的思路是先将A-Z所有英文名的连接爬取出来,保存在一个cs ...

  3. Python爬虫 - 爬取百度html代码前200行

    Python爬虫 - 爬取百度html代码前200行 - 改进版,  增加了对字符串的.strip()处理 源代码如下: # 改进版, 增加了 .strip()方法的使用 # coding=utf-8 ...

  4. 用Python爬虫爬取广州大学教务系统的成绩(内网访问)

    用Python爬虫爬取广州大学教务系统的成绩(内网访问) 在进行爬取前,首先要了解: 1.什么是CSS选择器? 每一条css样式定义由两部分组成,形式如下: [code] 选择器{样式} [/code ...

  5. 使用Python爬虫爬取网络美女图片

    代码地址如下:http://www.demodashi.com/demo/13500.html 准备工作 安装python3.6 略 安装requests库(用于请求静态页面) pip install ...

  6. Python爬虫|爬取喜马拉雅音频

    "GOOD Python爬虫|爬取喜马拉雅音频 喜马拉雅是知名的专业的音频分享平台,用户规模突破4.8亿,汇集了有声小说,有声读物,儿童睡前故事,相声小品等数亿条音频,成为国内发展最快.规模 ...

  7. python爬虫爬取内容中,-xa0,-u3000的含义

    python爬虫爬取内容中,-xa0,-u3000的含义 - CSDN博客 https://blog.csdn.net/aiwuzhi12/article/details/54866310

  8. Python爬虫爬取全书网小说,程序源码+程序详细分析

    Python爬虫爬取全书网小说教程 第一步:打开谷歌浏览器,搜索全书网,然后再点击你想下载的小说,进入图一页面后点击F12选择Network,如果没有内容按F5刷新一下 点击Network之后出现如下 ...

  9. 一个简单的python爬虫,爬取知乎

    一个简单的python爬虫,爬取知乎 主要实现 爬取一个收藏夹 里 所有问题答案下的 图片 文字信息暂未收录,可自行实现,比图片更简单 具体代码里有详细注释,请自行阅读 项目源码: # -*- cod ...

随机推荐

  1. rsync用法

    前提条件:本机和172.16.93.0配置ssh,进行免密登录 1.基于ssh的rsync远程同步数据(推) rsync -e -SNAPSHOT.jar 172.16.93.0:/data/java ...

  2. 【git】【Idea】git刷新获取远程分支列表,可以在idea上看到最新的远程分支列表

    [前提:本地项目是从GitLab或gitHub这些远程仓库上拉下来的 ,并且本地安装了git] ==================================================== ...

  3. CDR镂空字踩坑记录

    做个成品,看似没毛病 坑1 但是对整体上个色就会发现,白框部分一片漆黑(字黑色,框子黑色) 然后根据大牛的作品染色后没毛病推出 ==> 字体要做镂空字 坑1解决 先把框内元素全部选择(字.矢量图 ...

  4. 用JavaScript带你体验V8引擎解析标识符

    上一篇讲了字符串的解析过程,这一篇来讲讲标识符(IDENTIFIER)的解析. 先上知识点,标识符的扫描分为快解析和慢解析,一旦出现Ascii编码大于127的字符或者转义字符,会进入慢解析,略微影响性 ...

  5. Reactor的NIO线程模型

    1.Reactor单线程模型 传统的javaNIO通信的线程模型.该线程模型仅有一个I/O线程处理所有的I/O操作,如下图:   单线程模型的Reactor 所有的客户端都连接到一个I/O线程负责的A ...

  6. WebUploader 上传文件 错误总结

    近日做文件上传,粗心的问题和技术不精的问题导致了很多的bug,大部分时间都是在找自己写出来的bug,近日总结一下使用 WebUploader 开启分片上传的使用方法以及注意事项 1.上传过程中,后续上 ...

  7. NetCoreApi框架搭建三、JWT授权验证)

    1.首先还是粘贴大神的链接 虽然说大神的博客已经讲得很详细了,但是此处还是自己动手好点. 首先配置Startup Swagger的验证 2.新建一个项目存放tokenmodel和生成token并且存入 ...

  8. PIE SDK缓冲区分析算法

    1.算法功能简介 缓冲区分析是指有点.线.面实体为基础,自动建立其周围一定宽度范围内的缓冲区多边形图层,然后建立该图层与目标图层的叠加,进行分析而得到的所需的结果.他是用来解决邻近度问题的控件分析工具 ...

  9. webpack详细介绍以及配置文件属性!

    1.webpack简单介绍 (1)webpack是一个用于实现前端模块化开发工具,可帮助我们自动打包编译成浏览器能够识别的代码 :同时支持commonjs规范 以及es6的import规范: 同时具备 ...

  10. Vue+element 解决浏览器自动填充记住的账号密码问题

    我们在做form表单的时候,会发现,浏览器会自动的将我们之前保存的密码, 自动的填充到表单中input 为 type="password" 的框中 登录页面也就算了,但是注册页面就 ...