今天在浏览网页时,看到一篇很有意思的文章,关于网络爬虫的。该文章是讲述如何利用request爬取英雄联盟官网皮肤图片。看过文章后觉得挺有用的,把代码拿过来运行了一下,果真爬取成功。下面给大家分享一下代码。

  首先得利用cmd命令指示符安装requests库,json,re,time。

  安装完成后,第一步是获取英雄ID从而为先面判决URL作准备。

def getLOLImages():
header = {'User-Agent':'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/67.0.3396.62 Safari/537.36'}
url_js = 'http://lol.qq.com/biz/hero/champion.js'
#获取JS源代码 Str bytes
res_js = requests.get(url_js).content
#转码 转成字符串
html_js = res_js.decode()
#正则表达式
req = '"keys":(.*?),"data"'
list_js = re.findall(req,html_js)
#转成dict
dict_js = json.loads(list_js[0])
# print(type(dict_js))
#定义图片列表
pic_list = []
for key in dict_js:
# print(key)#英雄ID

第二步就是拼接URL了,通过发现英雄皮肤url的取名方式,我们可以方向最后的数字是不同的。让后通过此方法来获取图片地址。

for i in range(20):
number = str(i)
if len(number) == 1:
hero_num = ""+number
elif len(number) == 2:
hero_num = ""+number
numstr = key+hero_num
url = "http://ossweb-img.qq.com/images/lol/web201310/skin/big"+numstr+".jpg"
#http://ossweb-img.qq.com/images/lol/web201310/skin/big81000.jpg
pic_list.append(url)

第三步是获取图片名称,path那行是放置图片的地址,注意结尾的\\不能丢。

list_filepath = []
path = "D:\Pycharmdaima\Pachong\LOLTU\\"
for name in dict_js.values():
for i in range(20):
file_path = path+name+str(i)+'.jpg'
list_filepath.append(file_path)

第四步就是下载图片了。

n = 0
for picurl in pic_list:
res = requests.get(picurl)
n += 1
#获取状态码
if res.status_code == 200:
print("正在下载%s"%list_filepath[n])
time.sleep(1)
with open(list_filepath[n],'wb') as f:
f.write(res.content)

最后,调用一下getLOLImages()方法

getLOLImages()

  注意,我第一次用了源码,后来发现运行太慢,检查一下源码后发现代码末尾调用了一个time.sleep()方法。这样是为了限制爬取速度,避免速度过快被网站发现而中断。经过调试,我中途暂停代码运行,将sleep()方法注释掉,爬取速度果然加快,而且没有中断。

  下面是我的爬取成果:

利用爬虫爬取LOL官网上皮肤图片的更多相关文章

  1. python爬虫---爬取王者荣耀全部皮肤图片

    代码: import requests json_headers = { "User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win ...

  2. 利用python爬取王者荣耀英雄皮肤图片

    前两天看到同学用python爬下来LOL的皮肤图片,感觉挺有趣的,我也想试试,于是决定来爬一爬王者荣耀的英雄和皮肤图片. 首先,我们找到王者的官网http://pvp.qq.com/web201605 ...

  3. 利用爬虫爬取指定用户的CSDN博客文章转为md格式,目的是完成博客迁移博文到Hexo等静态博客

    文章目录 功能 爬取的方式: 设置生成的md文件命名规则: 设置md文件的头部信息 是否显示csdn中的锚点"文章目录"字样,以及下面具体的锚点 默认false(因为csdn中是集 ...

  4. python爬虫–爬取煎蛋网妹子图片

    前几天刚学了python网络编程,书里没什么实践项目,只好到网上找点东西做. 一直对爬虫很好奇,所以不妨从爬虫先入手吧. Python版本:3.6 这是我看的教程:Python - Jack -Cui ...

  5. <scrapy爬虫>爬取校花信息及图片

    1.创建scrapy项目 dos窗口输入: scrapy startproject xiaohuar cd xiaohuar 2.编写item.py文件(相当于编写模板,需要爬取的数据在这里定义) # ...

  6. Python爬虫爬取百度贴吧的图片

    根据输入的贴吧地址,爬取想要该贴吧的图片,保存到本地文件夹,仅供参考: #!/usr/bin/python#_*_coding:utf-8_*_import urllibimport urllib2i ...

  7. Python 爬虫-爬取京东手机页面的图片

    具体代码如下: __author__ = 'Fred Zhao' import requests from bs4 import BeautifulSoup import os from urllib ...

  8. 一个简单的定向python爬虫爬取指定页面的jpg图片

    import requests as r import re resul=r.get("http://www.imooc.com/course/list") urlinfo=re. ...

  9. python爬虫爬取煎蛋网妹子图片

    import urllib.request import os def url_open(url): req = urllib.request.Request(url) req.add_header( ...

随机推荐

  1. Z-buffer算法

    1.Z缓冲区(Z-Buffer)算法 1973年,犹他大学学生艾德·卡姆尔(Edwin Catmull)独 立开发出了能跟踪屏幕上每个像素深度的算法 Z-buffer Z-buffer让计算机生成复杂 ...

  2. JVM系列一:JVM内存模型

    今天起开始总结JVM.自己也看了好多JVM相关的知识,在此做个总结. 打算分为五个部分来讲:JVM内存模型.JVM类加载机制.JVM垃圾回收机制.JVM启动参数设置及优化.JVM其他相关. 今天首先来 ...

  3. python selenium之CSS定位

    ccs的优点:css相对xpath语法比xpath简洁,定位速度比xpath快 css的缺点:css不支持用逻辑运算符来定位,而xpath支持.css定位语法形式多样,相对xpath比较难记. css ...

  4. 网络编程之winInet

    InternetGetConnectedState() 简介: 功能:检索本地系统的网络连接状态. 函数原型:BOOLAPI InternetGetConnectedState(            ...

  5. 生产环境下,MySQL大事务操作导致的回滚解决方案

    如果mysql中有正在执行的大事务DML语句,此时不能直接将该进程kill,否则会引发回滚,非常消耗数据库资源和性能,生产环境下会导致重大生产事故. 如果事务操作的语句非常之多,并且没有办法等待那么久 ...

  6. python-利用freeze生成requirements文件

    使用场景:本地电脑开发完成的python自动化项目,需要导出python相关的依赖包以便后续迁移项目使用. C:\Users\acer>e: E:\>pip freeze >requ ...

  7. C语言1作业004

    这个作业属于哪个课程 C语言作业004 我在这个课程的目标是 理解和掌握for语句的基本操作 这个作业在哪个具体方面帮助我实现目标 循环结构的应用,数学函数基本问题 参考文献 C语言程序设计(第3版) ...

  8. Bugku SQL注入2的思考

    网络安全初学者,欢迎评论交流学习,若内容中有错误欢迎各位指正. 题目地址:http://123.206.87.240:8007/web2/ 题目提示:都过滤了绝望吗?,提示 !,!=,=,+,-,^, ...

  9. 七、springBoot 简单优雅是实现文件上传和下载

    前言 好久没有更新spring Boot 这个项目了.最近看了一下docker 的知识,后期打算将spring boot 和docker 结合起来.刚好最近有一个上传文件的工作呢,刚好就想起这个脚手架 ...

  10. 自定义表头Datagrid

    自定义的一个表头 <bp:BasePage x:Class="NetReform.Pages.RealProbabiTableCompare" xmlns="htt ...