记一次 爬取LOL全皮肤原画保存到本地的实例
#爬取lol全英雄皮肤
import re
import traceback # 异常跟踪
import requests
from bs4 import BeautifulSoup
#获取html
def get_url(url, hander):
try:
r = requests.get(url, headers=hander, timeout=30)
r.raise_for_status()
r.encoding = r.apparent_encoding
return r.text
except:
traceback.print_exc() #将异常信息打印出来
return ""
#解析html
def prasing_page(lst,html):
try:
soup = BeautifulSoup(html, "html.parser")
for a in soup.find_all('li', class_=re.compile('boxShadow')):
tag_a = a('a')
for i in tag_a:
lst.append(i['href'])
return lst
except:
traceback.print_exc()
return ""
#解析获取到的单个html并筛选和下载
def getUrl_prasingpag(lst, hander):
hero_img_url = []
hero_skin_name = []
hero_name = []
for u in lst:
try:
r = requests.get(u, headers=hander, timeout=30)
r.raise_for_status()
r.encoding = r.apparent_encoding
#二次解析
soup = BeautifulSoup(r.text, "html.parser")
pag = soup.find_all('div', class_=re.compile('othersPifuBox'))
for m in pag:
tag_img = m('img')
tag_p = m('p')
tag_span = m('span')
for m in tag_p:
hero_skin_name.append(m.string)
for m in tag_img:
hero_img_url.append(m['src'])
for m in tag_span:
hero_name.append(m.string)
except:
traceback.print_exc() # 将异常信息打印出来
continue
#下载到本地
for i in range(len(hero_name)):
try:
path = 'O:/lol_hero_jpg/' + hero_skin_name[i]+'--' + hero_name[i] + '.jpg'
f = open(path, 'wb')
r = requests.get(hero_img_url[i], stream=True)
f.write(r.content)
print("\r当前进度>>>>>>>>>>>>>>>>>>{:.0f}%>>>>>>>>>>>>>>>>>>".format(i * 100 / len(lst)), end="")
f.close()
except:
traceback.print_exc() # 将异常信息打印出来
continue
def main():
hander = {"User-Agent":"Mozilla/5.0"}
deep = 43 #定义爬取页数
list = []
for i in range(deep):
try:
url = "http://********/hero_"+str(1+i)+".shtml"
html = get_url(url, hander)
prasing_page(list, html)
getUrl_prasingpag(list, hander)
except:
continue
main()
记一次 爬取LOL全皮肤原画保存到本地的实例的更多相关文章
- python爬取某个网站的图片并保存到本地
python爬取某个网站的图片并保存到本地 #coding:utf- import urllib import re import sys reload(sys) sys.setdefaultenco ...
- 爬取博主所有文章并保存到本地(.txt版)--python3.6
闲话: 一位前辈告诉我大学期间要好好维护自己的博客,在博客园发布很好,但是自己最好也保留一个备份. 正好最近在学习python,刚刚从py2转到py3,还有点不是很习惯,正想着多练习,于是萌生了这个想 ...
- 如何优雅的爬取 gzip 格式的页面并保存在本地(java实现)
1. 引言 在爬取汽车销量数据时需要爬取 html 保存在本地后再做分析,由于一些页面的 gzip 编码格式, 获取后要先解压缩,否则看到的是一片乱码.在网络上仔细搜索了下,终于在这里找到了一个优雅的 ...
- Python爬取LOL英雄皮肤
Python爬取LOL英雄皮肤 Python 爬虫 一 实现分析 在官网上找到英雄皮肤的真实链接,查看多个后发现前缀相同,后面对应为英雄的ID和皮肤的ID,皮肤的ID从00开始顺序递增,而英雄ID跟 ...
- Python3爬虫使用requests爬取lol英雄皮肤
本人博客:https://xiaoxiablogs.top 此次爬取lol英雄皮肤一共有两个版本,分别是多线程版本和非多线程版本. 多线程版本 # !/usr/bin/env python # -*- ...
- python网络图片爬取存储全代码
#图片爬取全代码import requestsimport osurl = "https://timgsa.baidu.com/timg?image&quality=80&s ...
- 爬取表格类网站数据并保存为excel文件
本文转载自以下网站:50 行代码爬取东方财富网上市公司 10 年近百万行财务报表数据 https://www.makcyun.top/web_scraping_withpython6.html 主要学 ...
- 使用Python爬取微信公众号文章并保存为PDF文件(解决图片不显示的问题)
前言 第一次写博客,主要内容是爬取微信公众号的文章,将文章以PDF格式保存在本地. 爬取微信公众号文章(使用wechatsogou) 1.安装 pip install wechatsogou --up ...
- scrapy框架来爬取壁纸网站并将图片下载到本地文件中
首先需要确定要爬取的内容,所以第一步就应该是要确定要爬的字段: 首先去items中确定要爬的内容 class MeizhuoItem(scrapy.Item): # define the fields ...
随机推荐
- es6 中let与const的简析
1.let 它的作用类似于var,用来声明变量,但是所声明的变量,只在let命令所在的代码块内有效. if(true){ ; let b = ; } document.write(a); docume ...
- 使用DataX同步MaxCompute数据到TableStore(原OTS)优化指南
概述 现在越来越多的技术架构下会组合使用MaxCompute和TableStore,用MaxCompute作大数据分析,计算的结果会导出到TableStore提供在线访问.MaxCompute提供海量 ...
- @codeforces - 1187F@ Expected Square Beauty
目录 @description@ @solution@ @accepted code@ @details@ @description@ 给定一个序列 x = {x1, x2, ..., xn},已知 ...
- HZOJ visit
对于前30%的数据,可以考虑dp,f[i][j][k]表示时间为i,在i,j位置的方案数,枚举转移即可.要注意的是可以走到矩阵外. 对于另外30%数据,考虑推一下式子,设向右走y步,左z,上s,下x. ...
- oracle SELECT子句中避免使用 ‘ * ‘
当你想在SELECT子句中列出所有的COLUMN时,使用动态SQL列引用 ‘*’ 是一个方便的方法. 不幸的是,这是一个非常低效的方法. 实际上,ORACLE在解析的过程中, 会将’*’ 依次转换成所 ...
- SuperSocket命令加载器 (Command Loader)
在某些情况下,你可能希望通过直接的方式来加载命令,而不是通过自动的反射. 如果是这样,你可以实现你自己的命令加载器 (Command Loader): public interface IComman ...
- H3C PAP验证配置示例
- LuaForWindows_v5.1.4-45和lua-5.1.4.tar.gz
Lua学习笔记(一) 安装调试环境 Lua学习笔记(一) 安装调试环境 觉得自己是该掌握一门脚本语言的时候了,虽然曾经用过C# 和JavaScript 写过Unity3D的脚本.但是,总觉得那 ...
- Python--day40--复习和回调函数实例
- 2018-8-10-VisualStudio-合并代码文件
title author date CreateTime categories VisualStudio 合并代码文件 lindexi 2018-08-10 19:16:52 +0800 2018-2 ...