记录一下自己爬虎牙LOL主播的爬虫思路
1.明确爬虫目的
爬虫目的需要我们明确的,没有目的的爬虫都是耍流氓!像我这次爬虫目的能不能从网页上爬下来。
2.怎么来爬?
a. 先要找到具有唯一性的标签
<li class="game-live-item" gid="1">
<a href="http://www.huya.com/baozha" class="video-info new-clickstat " target="_blank" report="{"eid":"click/position","position":"lol/0/1/1","game_id":"1","ayyuid":"17363578"}">
<img class="pic" data-original="//screenshot.msstatic.com/yysnapshot/1801cfa4fc99aabc841eb9e25fa43f15a608b02d1055?imageview/4/0/w/338/h/190/blur/1" src="//screenshot.msstatic.com/yysnapshot/1801cfa4fc99aabc841eb9e25fa43f15a608b02d1055?imageview/4/0/w/338/h/190/blur/1/format/webp" onerror="this.onerror=null; this.src='//a.msstatic.com/huya/main/assets/img/default/338x190.jpg';" alt="炸姐ADC的直播" title="炸姐ADC的直播">
<em class="tag tag-recommend">大神推荐</em> <div class="item-mask"></div>
<i class="btn-link__hover_i"></i>
<p class="tag-right">
<!-- 蓝光 -->
<!-- 热舞 -->
<!-- 存活人数 -->
</p>
</a>
<a href="http://www.huya.com/baozha" class="title new-clickstat" report="{"eid":"click/position","position":"lol/0/1/1","game_id":"1","ayyuid":"17363578"}" title="S8定位赛开始了11-0 裁决已解决" target="_blank">S8定位赛开始了11-0 裁决已解决</a>
<span class="txt">
<span class="avatar fl">
<img data-original="//huyaimg.msstatic.com/avatar/1095/83/2aa2f6905fe4382221d08b66d7cdcb_180_135.jpg" src="//huyaimg.msstatic.com/avatar/1095/83/2aa2f6905fe4382221d08b66d7cdcb_180_135.jpg" onerror="this.onerror=null; this.src='//a.msstatic.com/huya/main/assets/img/default/84x84.jpg';" alt="炸姐ADC" title="炸姐ADC">
<i class="nick" title="炸姐ADC">炸姐ADC</i>
</span>
<span class="num"><i class="num-icon"></i><i class="js-num">67.0万</i></span>
</span>
</li>
开始的时候我选取的是<span class="txt"></span>,虽然这个标签中涵盖了我们需要的主播名字和主播的粉丝量,但是,如果我们用正则表达式提取的时候,如果使用贪婪模式的时候,提取的信息就比上面多太多了,如果用非贪婪模式的时候,
提取的内容也就只有下面这些:
<span class="txt">
<span class="avatar fl">
<img data-original="//huyaimg.msstatic.com/avatar/1095/83/2aa2f6905fe4382221d08b66d7cdcb_180_135.jpg" src="//huyaimg.msstatic.com/avatar/1095/83/2aa2f6905fe4382221d08b66d7cdcb_180_135.jpg" onerror="this.onerror=null; this.src='//a.msstatic.com/huya/main/assets/img/default/84x84.jpg';" alt="炸姐ADC" title="炸姐ADC">
<i class="nick" title="炸姐ADC">炸姐ADC</i>
</span>
缺失了主播的粉丝数,那么选取的标签就是不合理的。
如果我们选择<li class="game-live-item" gid="1"></li>这个标签的时候就不会出现问题的。
b. 尽量选取匹配的信息
假想一下,如果我们只是获得主播名字,然后再获取主播粉丝,那么信息就对不上了,所以我们要选取匹配的信息。选取下面的就很合理。
<li class="game-live-item" gid="1">
<a href="http://www.huya.com/baozha" class="video-info new-clickstat " target="_blank" report="{"eid":"click/position","position":"lol/0/1/1","game_id":"1","ayyuid":"17363578"}">
<img class="pic" data-original="//screenshot.msstatic.com/yysnapshot/1801cfa4fc99aabc841eb9e25fa43f15a608b02d1055?imageview/4/0/w/338/h/190/blur/1" src="//screenshot.msstatic.com/yysnapshot/1801cfa4fc99aabc841eb9e25fa43f15a608b02d1055?imageview/4/0/w/338/h/190/blur/1/format/webp" onerror="this.onerror=null; this.src='//a.msstatic.com/huya/main/assets/img/default/338x190.jpg';" alt="炸姐ADC的直播" title="炸姐ADC的直播">
<em class="tag tag-recommend">大神推荐</em> <div class="item-mask"></div>
<i class="btn-link__hover_i"></i>
<p class="tag-right">
<!-- 蓝光 -->
<!-- 热舞 -->
<!-- 存活人数 -->
</p>
</a>
<a href="http://www.huya.com/baozha" class="title new-clickstat" report="{"eid":"click/position","position":"lol/0/1/1","game_id":"1","ayyuid":"17363578"}" title="S8定位赛开始了11-0 裁决已解决" target="_blank">S8定位赛开始了11-0 裁决已解决</a>
<span class="txt">
<span class="avatar fl">
<img data-original="//huyaimg.msstatic.com/avatar/1095/83/2aa2f6905fe4382221d08b66d7cdcb_180_135.jpg" src="//huyaimg.msstatic.com/avatar/1095/83/2aa2f6905fe4382221d08b66d7cdcb_180_135.jpg" onerror="this.onerror=null; this.src='//a.msstatic.com/huya/main/assets/img/default/84x84.jpg';" alt="炸姐ADC" title="炸姐ADC">
<i class="nick" title="炸姐ADC">炸姐ADC</i>
</span>
<span class="num"><i class="num-icon"></i><i class="js-num">67.0万</i></span>
</span>
</li>
c. 尽量选取他们的父级标签
3. 简单点的爬虫思路
a. 模拟HTTP请求,向服务器发送这个请求,获取到服务器返回给我们的HTML
b.用正则表达式获取我们想要的数据
4.开始爬
附上源码(每个函数都解释的很清楚):
from urllib import request
import re class Spider():
url = 'http://www.huya.com/g/lol'
root_pattern = '<li class="game-live-item" gid="1">([\w\W]*?)</li>'
one_pattern = '<i class="nick" title="[\s\S]*?</i>'
two_pattern = '<i class="js-num">([\s\S]*?)</i>'
one_pattern_name = '>([\s\S]*?)</i>' #模拟HTTP请求(私有方法)
def __fetch_content(self): r = request.urlopen(Spider.url)
htmls=r.read()
#如果不转成str的格式的话,就会造成机器卡顿
htmls= str(htmls,encoding='utf-8')
return htmls #数据分析
def __analynize(self,htmls):
rs = re.findall(Spider.root_pattern,htmls)
star_lists = [] for r in rs:
rz = re.findall(Spider.one_pattern,r)
#粉丝数
follwers = re.findall(Spider.two_pattern,r)
#主播名字
name = re.findall(Spider.one_pattern_name,str(rz))
#Spider.result[str(rzz[0])]=str(rx[0])
star_list = {'name':name,'follwers':follwers}
star_lists.append(star_list) return star_lists #数据精炼(提高数据的可靠性)
def __refine(self,star_lists):
func = lambda star_list:{
'name':star_list['name'][0],
'follwers':star_list['follwers'][0]
}
return map(func,star_lists) #业务处理(这里以排序代替)
def __sort(self,star_end_lists):
star_end_lists = sorted(star_end_lists,key=self.__key_access,reverse=True)
return star_end_lists #key的排序规则
def __key_access(self,star_end_list):
num = re.findall('\d*',star_end_list['follwers'])
num = float(num[0]) if '万' in star_end_list['follwers']:
num=num*10000
return num #数据的后续处理(可以存入数据库)
def __show(self,star_end_lists_sorted):
print('------虎牙LOL主播粉丝的排行榜------')
for i in range(1,len(star_end_lists_sorted)):
print('排名:'+str(i)+' '+star_end_lists_sorted[i-1]['name']+' '+star_end_lists_sorted[i-1]['follwers']) #爬虫入口
def go(self):
r1 = self.__fetch_content()
star_lists = self.__analynize(r1)
star_end_lists = self.__refine(star_lists)
star_end_lists_sorted = self.__sort(list(star_end_lists))
self.__show(star_end_lists_sorted) spider = Spider()
spider.go()
运行结果:
------虎牙LOL主播粉丝的排行榜------
排名:1 卡尔 71.9万
排名:2 毒纪 36.1万
排名:3 LCK冠军联赛 17.7万
排名:4 LPL职业联赛 16.0万
排名:5 MH、金灿毅ChanE 12.6万
排名:6 聆听-旋律 9.5万
排名:7 董月月 8.2万
排名:8 完美OB 7.9万
排名:9 芜湖神 6.3万
排名:10 叶子yasuo 5.2万
排名:11 第一吸血鬼屿水 3.5万
排名:12 灭世冷漠 3.3万
排名:13 最快锐雯风神 3.4万
排名:14 娇宝的老公李青强 2.2万
排名:15 纪小鹿 2.1万
排名:16 菜鸡文 1.9万
排名:17 八神 1.4万
排名:18 幼灵梦 1.5万
排名:19 虎牙丶柯南 1.0万
排名:20 小僧空空 9972
排名:21 潘神丶 9392
排名:22 开森的小唯美 8888
排名:23 阿俊z 8712
排名:24 90818丶追梦 8678
排名:25 铸哥 8010
排名:26 二A 7915
排名:27 烟雨丶青蛙瑞兹 7824
排名:28 吐司 6774
排名:29 正恒丶小白 6635
排名:30 844-暮笙小爷 5972
排名:31 国服第一赵信小雨 5655
排名:32 雨雾-小杰人马 5564
排名:33 正恒丶兔子 5479
排名:34 先锋丶婉清 5417
排名:35 可乐剑姬 5379
排名:36 节奏 4985
排名:37 腾嘉-熊大 4959
排名:38 正恒丶小鱼 4923
排名:39 844-雯雯 4779
排名:40 雨雾-阿龙赵信 4416
排名:41 娱加-萌小希 4373
排名:42 虎丶牙莎莉 4020
排名:43 十年锐雯 4013
排名:44 正恒丶伊芙神 3999
排名:45 亚古兽 3972
排名:46 虎牙东方梦魇 3888
排名:47 猴王一心 3806
排名:48 谁明浪子心 3694
排名:49 浩东德莱文 3539
排名:50 正恒丶芒果 3350
排名:51 兆辉-风度人影剑度天 3347
排名:52 耀弟-最强武器 3120
排名:53 觅寻哟 3049
排名:54 天亿-Aarou 2916
排名:55 先锋GJ丶空城男刀 2812
排名:56 爱拍-阿浩 2682
排名:57 Autism 2672
排名:58 叶包包丶 2571
排名:59 固执 2529
排名:60 Huya丶薄荷 2505
排名:61 阿明 2490
排名:62 兆辉-瑶神皎月 2475
排名:63 何遇是个帅卡特i 2472
排名:64 悦儿 2416
排名:65 5斧德莱文丶秒杀 2211
排名:66 正恒丶小雪 2197
排名:67 会好的 2151
排名:68 飘逸 2147
排名:69 娱加-U妮 2144
排名:70 铭人丶千姿 2038
排名:71 虎牙直播-蔸 1992
排名:72 无心瑞兹 1979
排名:73 逍遥 1954
排名:74 悟道沙皇 1934
排名:75 光锡兰博 1918
排名:76 开开皇子 1874
排名:77 正恒丶小贼 1782
排名:78 泽佳琴女 1713
排名:79 娱加-杨思涵 1712
排名:80 武神诺手丶强者灌篮 1654
排名:81 烟雨丶陈年剑圣 1646
排名:82 娱加-辣么萌 1642
排名:83 LCK备用1 1595
排名:84 聆听-鑫哥卡萨丁 1582
排名:85 雨雾-火鸡兰博 1571
排名:86 老唐家糯米饭 1570
排名:87 正恒丶逗比空 1552
排名:88 拔哥丶卡特 1540
排名:89 菲菲 1532
排名:90 辗转辗转辗转 1517
排名:91 虎牙鱼王-洛水尘 1505
排名:92 国服第一卡特 1495
排名:93 极限哥 1477
排名:94 Huya丶风男 1431
排名:95 王吉吉先生 1424
排名:96 小风手速亚索 1402
排名:97 魔魅大少 1401
排名:98 LCK备用2 1396
排名:99 虎牙嗨少 1371
排名:100 北北 1365
排名:101 坑货的提莫 1346
排名:102 正恒丶烧肉粽 1320
排名:103 甲第-乔仪 1298
排名:104 提百万 1297
排名:105 十四剑姬 1277
排名:106 正恒丶啤梨 1241
排名:107 我是钟钟 1166
排名:108 天天天 1121
排名:109 RiotGame1 1109
排名:110 兆辉-章鱼哥 1090
排名:111 河蟹i 1090
排名:112 京酱Rose 1063
排名:113 零一c 1063
排名:114 冷三指 1059
排名:115 喵喵 1058
排名:116 腾嘉-陈小艾 1026
排名:117 虎牙野区剑圣皓児 1006
排名:118 小姚姚 1001
排名:119 虎牙丶Hope 991
声明:以上数据是时间在2018.1.18.13:53统计的
5.爬虫有什么用
存到数据库中,就可以自己做小程序,或者其他的了。
转载请注明出处,谢谢!
记录一下自己爬虎牙LOL主播的爬虫思路的更多相关文章
- python爬虫--看看虎牙女主播中谁颜值最高
目录 爬虫 百度人脸识别接口 效果演示 很多人学习python,不知道从何学起.很多人学习python,掌握了基本语法过后,不知道在哪里寻找案例上手.很多已经做案例的人,却不知道如何去学习更加高深的知 ...
- 『Scrapy』爬取斗鱼主播头像
分析目标 爬取的是斗鱼主播头像,示范使用的URL似乎是个移动接口(下文有提到),理由是网页主页属于动态页面,爬取难度陡升,当然爬取斗鱼主播头像这么恶趣味的事也不是我的兴趣...... 目标URL如下, ...
- 爬虫之selenium爬取斗鱼主播图片
这是我GitHub上简单的selenium介绍与简单使用:https://github.com/bwyt/spider/tree/master/selenium%E5%9F%BA%E7%A1%80 & ...
- python实战之原生爬虫(爬取熊猫主播排行榜)
""" this is a module,多行注释 """ import re from urllib import request # B ...
- selenium,webdriver爬取斗鱼主播信息 实操
from selenium import webdriver import time from bs4 import BeautifulSoup class douyuSelenium(): #初始化 ...
- 虎牙数万主播同时在线直播的秘密,CDN推流日志上行实时监控
6 月 10 日,又拍云 Open Talk | 2018 音视频技术沙龙·深圳站 顺利落幕,来自虎牙的直播运维研发架构师张波在沙龙上做了<基于CDN推流日志的主播上行实时监控及其自动化解密&g ...
- 爬虫之爬取斗鱼官网LOL部分主播的状态
一个爬虫小程序 爬取主播的排名及观看人数 import re import requests import request class Spider(): url = 'https://www.dou ...
- 使用Python自带的库和正则表达式爬取熊猫直播主播观看人气
主要是体现代码的规范性 from urllib import request import re class Spider(): url = 'https://www.panda.tv/cate/lo ...
- 鹅厂优文|主播pk,如何实现无缝切换?
欢迎大家前往腾讯云+社区,获取更多腾讯海量技术实践干货哦~ 本文作者,rexchang(常青),腾讯视频云终端技术总监,2008 年毕业加入腾讯,一直从事客户端研发相关工作,先后参与过 PC QQ.手 ...
随机推荐
- MySql基础总结
1.创建一个表 CREATE TABLE customers ( cust_id INT NOT NULL AUTO_INCREMENT, cust_name CHAR(50) NOT NULL , ...
- JavaSe:Comparator
今天,公司里有一个萌萌的妹子问我java 中的comparator是怎么回事.参数分别是什么,返回值又是什么,为此,我写了一个简单的程序告诉了她: public static void main (S ...
- 【HTML5】Canvas
<!DOCTYPE html> <html> <head> <meta charset="utf-8"> <title> ...
- 浅谈Unix I/O模型
关于I/O模型的文章比较多,参考多篇后理解上仍然不太满意,终需自己整理一次,也是编写高吞吐量高性能网络接口模块的基础.这里所说的主要针对网络I/O,近几年面对越来越大的用户请求量,如何优化这些步骤直接 ...
- Node: 如何控制子进程的输出
大家知道,在一个node程序中,如果当前进程想要生成一个子进程,它可以调用child_process模块的spawn方法.spawn方法签名如下: child_process.spawn(comman ...
- python基础知识——字符串详解
大多数人学习的第一门编程语言是C/C++,个人觉得C/C++也许是小白入门的最合适的语言,但是必须承认C/C++确实有的地方难以理解,初学者如果没有正确理解,就可能会在使用指针等变量时候变得越来越困惑 ...
- bzoj 1179: [Apio2009]Atm
Description Input 第 一行包含两个整数N.M.N表示路口的个数,M表示道路条数.接下来M行,每行两个整数,这两个整数都在1到N之间,第i+1行的两个整数表示第i条道路 的起点和终点的 ...
- UWP 使用OneDrive云存储2.x api(二)【全网首发】
接上一篇 http://www.cnblogs.com/hupo376787/p/8032146.html 上一篇提到为了给用户打造一个完全无缝衔接的最佳体验,UWP开发者最好也要实现App设置和数据 ...
- Android破解学习之路(六)——Android游戏 方块冒险 破解
前言: 可能大家看到标题会有些懵逼,以为我发错了,这应该是五才对吧,其实,五我已经发了,不过被管理大大移出首页了,不知道这一篇是不是也会是同样的命运.. 今天所写的是关于支付宝内购的破解 原版 链接: ...
- springBoot系列教程04:mybatis及druid数据源的集成及查询缓存的使用
首先说下查询缓存:查询缓存就是相同的数据库查询请求在设定的时间间隔内仅查询一次数据库并保存到redis中,后续的请求只要在时间间隔内都直接从redis中获取,不再查询数据库,提高查询效率,降低服务器负 ...