适用的图片网站:美桌

源代码:

import requests
import re
import urllib
from bs4 import BeautifulSoup def get_html_text(url):
'''
获取网址url的HTML代码,以字符串形式返回html代码 '''
try:
res = requests.get(url, timeout = 6)
res.raise_for_status()
res.encoding = res.apparent_encoding
return res.text
except:
return ''
print('请求异常') def get_grupic_url(page_url, grupic_url_list, key_url, key_word):
'''
获取每张页面中每个图册的url链接,每个图册的url都有共同
且有别于其他链接的url,我们把部分特征的字符串放在key_url
中,通过它我们就可以筛选出页面中所有图册的url '''
page_html = get_html_text(page_url)
#解析页面的html代码
soup = BeautifulSoup(page_html, 'html.parser')
#获取该页面html代码中的所有<a>标签
a_tags = soup.find_all('a', attrs = {'href':True}) select_atag(grupic_url_list, a_tags, key_url, key_word) def get_allpages_url(cover_url, pages_url_list):
'''通过递归获取所有页面的链接,
直到该页面不存在class = 'next'的<a>标签 '''
html = get_html_text(cover_url)
soup = BeautifulSoup(html, 'html.parser')
#找到属性class = 'next'的<a>标签
a_tags = soup.find_all('a', class_ = 'next')
#如果<a>标签存在,就将该标签的url加入列表
if a_tags:
nextpage_url = a_tags[0].get('href')
pages_url_list.append(nextpage_url)
#递归获取下一个页面的<a>标签
get_allpages_url(nextpage_url, pages_url_list)
#当不存在属性class = 'next'的<a>标签时,说明这是最后一页,结束递归
return None def download_each_page(grupic_url_list, file_path1, page):
'''
通过调用download_each_group()函数,
下载每一页中的所有组图 '''
print('\n\n第 {0} 页开始下载:\n'.format(str(page))) gup = 1 #组数标记
#下载该页面中每个小相册的所有图片
for grupic_url in grupic_url_list:
file_path2 = file_path1 + '_{0}'.format(str(gup))
#获取该页面的h1标题
h1_string = get_h1_string(grupic_url)
try:
download_each_group(grupic_url, file_path2, h1_string, gup)
gup += 1
except:
print("下载异常")
gup += 1
continue def download_all_page(pages_url_list, file_path, key_url, key_word):
'''通过调用函数download_each_page(),
来下载所有页面的图片 '''
pages_num = len(pages_url_list)
print('\n相册一共有 {0} 页,已经开始下载请您耐心等待...'.format(str(pages_num))) page = 1 #页数标记
for page_url in pages_url_list:
grupic_url_list = []
get_grupic_url(page_url, grupic_url_list, key_url, key_word)
file_path1 = file_path + r'\{0}'.format(str(page))
download_each_page(grupic_url_list, file_path1, page)
page += 1 def download_each_group(grupic_url, file_path, h1_string, gup, n = 1):
'''
进入链接为grupic_url的图册,下载我们需要的大图片,
并递归进入下一个页面开始下载,直到图册的h1标题发生改变 '''
new_file_path = file_path + '_{0}.jpg'.format(str(n))
n += 1
html = get_html_text(grupic_url)
soup = BeautifulSoup(html, 'html.parser')
#当该页面的h1标题和小相册封面的h1标题相同时开始下载
if h1_string == soup.h1.string:
#找到属性class_ = 'pic-large'的img标签
img_tags = soup.find_all('img', class_ = 'pic-large')
img_tag = img_tags[0]
#下载该img标签属性data-original提供的url链接,即为目标图片的链接
urllib.request.urlretrieve(img_tag.get('data-original'), new_file_path)
#获取下一个页面的链接
next_url = img_tag.parent.get('href')
print('第 {0} 组:{1}, 第 {2} 张下载完成啦'.format(str(gup), h1_string, str(n-1)))
#递归下载下一个页面的目标图片
download_each_group(next_url, file_path, h1_string, gup, n)
#当h1标题不同时,说明进入到了另一个小相册,结束递归
return None def get_h1_string(url):
'''
获取网址为url网站的h1标签内容 '''
try:
html = get_html_text(url)
soup = BeautifulSoup(html, 'html.parser')
return soup.h1.string
except:
print('h1标题获取异常')
return '' def select_atag(grupic_url_list, atags, key_url, key_word):
for atag in atags:
atag_string = str(atag)
soup = BeautifulSoup(atag_string, 'html.parser')
p = soup.p
url = atag.get('href')
if soup.img and p and re.search(key_word, p.string) and re.match(key_url, url):
grupic_url_list.append(atag.get('href')) def main():
'''
主函数 '''
#封面的url链接,也就是第一页的url链接
cover_url = 'http://www.win4000.com/mt/yangzi.html'
#小相册链接中有别于其他链接的特征字符串
key_url = r'http://www.win4000.com/meinv'
key_word = '杨紫'
#图片存放的目录
file_path = r'G:\pictures\yangzi' #存放所有页面链接的列表
pages_url_list = []
#先将封面,即第一页加入列表
pages_url_list.append(cover_url) #获取其他页面的链接
get_allpages_url(cover_url, pages_url_list) #下载所有页面中所有图片的函数
download_all_page(pages_url_list, file_path, key_url, key_word) main()

python爬虫入门---第三篇:自动下载图片的更多相关文章

  1. python爬虫入门---第三篇:保存一张图片

    import requests import os url = 'http://imgsrc.baidu.com/forum/w%3D580%3B/sign=749ed018cecec3fd8b3ea ...

  2. python 爬虫入门----案例爬取上海租房图片

    前言 对于一个net开发这爬虫真真的以前没有写过.这段时间学习python爬虫,今天周末无聊写了一段代码爬取上海租房图片,其实很简短就是利用爬虫的第三方库Requests与BeautifulSoup. ...

  3. Python爬虫入门教程 25-100 知乎文章图片爬取器之一

    1. 知乎文章图片写在前面 今天开始尝试爬取一下知乎,看一下这个网站都有什么好玩的内容可以爬取到,可能断断续续会写几篇文章,今天首先爬取最简单的,单一文章的所有回答,爬取这个没有什么难度. 找到我们要 ...

  4. Python爬虫入门教程 26-100 知乎文章图片爬取器之二

    1. 知乎文章图片爬取器之二博客背景 昨天写了知乎文章图片爬取器的一部分代码,针对知乎问题的答案json进行了数据抓取,博客中出现了部分写死的内容,今天把那部分信息调整完毕,并且将图片下载完善到代码中 ...

  5. Python爬虫入门这一篇就够了

    何谓爬虫 所谓爬虫,就是按照一定的规则,自动的从网络中抓取信息的程序或者脚本.万维网就像一个巨大的蜘蛛网,我们的爬虫就是上面的一个蜘蛛,不断的去抓取我们需要的信息. 爬虫三要素 抓取 分析 存储 基础 ...

  6. Python 爬虫入门(三)—— 寻找合适的爬取策略

    写爬虫之前,首先要明确爬取的数据.然后,思考从哪些地方可以获取这些数据.下面以一个实际案例来说明,怎么寻找一个好的爬虫策略.(代码仅供学习交流,切勿用作商业或其他有害行为) 1).方式一:直接爬取网站 ...

  7. python爬虫入门(三)XPATH和BeautifulSoup4

    XML和XPATH 用正则处理HTML文档很麻烦,我们可以先将 HTML文件 转换成 XML文档,然后用 XPath 查找 HTML 节点或元素. XML 指可扩展标记语言(EXtensible Ma ...

  8. python爬虫入门---第四篇:网站对爬虫的限制及突破测试

    大部分网站对网络爬虫都有限制,限制方式有两种: 一.Robots协议:二.网站通过判断对网站访问http的头部信息来查看是否是爬虫,并对爬虫做相关拦截 第一种限制是书面限制,第二种是强制性阻拦限制.那 ...

  9. 3.Python爬虫入门三之Urllib和Urllib2库的基本使用

    1.分分钟扒一个网页下来 怎样扒网页呢?其实就是根据URL来获取它的网页信息,虽然我们在浏览器中看到的是一幅幅优美的画面,但是其实是由浏览器解释才呈现出来的,实质它是一段HTML代码,加 JS.CSS ...

随机推荐

  1. subarray sum

    public class Solution { /* * @param nums: A list of integers * @return: A list of integers includes ...

  2. Log system architecture

    0. 技术选型参考 1. Collector Keywords: Collector, Processor 名称 Beats Fluentd-bit Introduction Beats are a ...

  3. MVC笔记之一:MVC编程模型

    MVC是ASPX.NET用于构造Web应用的一种框架,和传统的ASPX.NET开发模式(Web Form)在架构上相同,同样采用三层框架实现,但相比传输开的模式,各层架构更加规范. 传统三层架构: V ...

  4. python中的数字取整(ceil,floor,round)概念和用法

    python中的数学运算函数(ceil,floor,round)的主要任务是截掉小数以后的位数.总体来说 就是取整用的.只是三者之间有微妙的区别:   floor() :把数字变小 ceil() : ...

  5. JS 数据类型和数据分析

    栈区:(stack)-由编译器自动分配释放,存放函数的参数值,局部变量的值等. 特点是存放体积小,使用频率高的数据.可以类比内存. 堆区:(heap)-一般由程序员分配释放,若开发者不释放,程序结束时 ...

  6. python基础的几个小练习题

    题目: 1.写一个程序,判断2008年是否是闰年. 2.写一个程序,用于计算2008年10月1日是这一年的第几天?(2008年1月1日是这一年的第一天) 3.(文件题)有一个“record.txt”的 ...

  7. python unittest单元测试

    unittest单元测试框架:包含测试用例编写.测试收集\测试用例加载.执行测试用例.生成测试用例报告,同时,更提供了添加断言,异常处理等. 第一:创建测试类,创建测试用例 第二:收集测试用例,加载测 ...

  8. Linux编程 8 (挂载mount,查看磁盘df du,搜索grep,压缩zgip,归档tar)

    一. 挂载存储媒体 linux文件系统将所有的磁盘都并入一个虚拟目录下,当使用新的存储媒体之前,需要把它放到虚拟目录下,这项工作称为挂载(mounting) 1.1 mount 命令 在linux上用 ...

  9. Docker容器绑定外部IP和端口

    Docker允许通过外部访问容器或者容器之间互联的方式来提供网络服务. 以下操作通过myfirstapp镜像模拟,如何制作myfirstapp镜像请点击此处. 1.外部访问容器容器启动之后,容器中可以 ...

  10. PHP打印指定日期

    打印某一日期的前一天 echo date("Y-m-d",(strtotime("2009-01-01") - 3600*24)); (1)打印明天此时的时间戳 ...