1.今天给大家介绍自己写的一个图片爬虫,说白了就是从网页自动上下载需要的图片

2.首先选取目标为:http://www.zhangzishi.cc/涨姿势这个网站如下图,我们的目标就是爬取该网站福利社的所有美图

3.福利社地址为http://www.zhangzishi.cc/category/welfare,获取图片就是获取所有网站图片的url地址,首先

A.打开URL,获取html代码

def url_open(url):
req = urllib.request.Request(url)
req.add_header('User-Agent','Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/31.0.1650.63 Safari/537.36')
response = urllib.request.urlopen(req)
html = response.read()
print('url_open')
return html

B.从html代码中摘取网页链接,返回的是一个列表

def page_htmls(url,count):
html = url_open(url).decode('utf-8')
pages = []
a = html.find('a target="_blank" href=')
i = 0
while a != -1:
i += 1
b = html.find('.html',a,a+200)
if b != -1:
pages.append(html[a+24:b+5])
else:
b = a + 24
a = html.find('a target="_blank" href=',b)
if i == count:
break
for each in pages:
print(each)
return pages

C.从每一个链接页中获取图片地址,我这用了两种方法

def find_imgs(url):
html = url_open(url).decode('utf-8')
imgs = [] a = html.find('img src=')
while a != -1:
b = html.find('.jpg',a,a+100)
if b != -1:
if html[a+9:b+4].find('http') == -1:
imgs.append('http:'+html[a+9:b+4])
else:
imgs.append(html[a+9:b+4])
else:
b = a + 9
a = html.find('img src=',b)
'''
for each in imgs:
print(each)
'''
return imgs def imgurl_get(url):
html = url_open(url).decode('utf-8')
imgurls = []
a = html.find('color: #555555;" src=')
while a != -1:
b = html.find('.jpg',a,a+100)
if b != -1:
imgurls.append('http:'+html[a+22:b+4])
else:
b = a + 22
a = html.find('color: #555555;" src=',b) return imgurls

D.根据图片url下载图片到文件

def save_imgs(folder,imgs):
for ea in imgs:
filename = ea.split('/')[-1]
with open(filename,'wb') as f:
img = url_open(ea)
f.write(img) def download_mm(folder='H:\\xxoo2',page_count = 100,count = 100):
main_url = 'http://www.zhangzishi.cc/category/welfare'
main_urls = []
for i in range(count):
main_urls.append(main_url+'/page/'+str(i+1))
os.mkdir(folder)
os.chdir(folder)
for url in main_urls:
htmls = page_htmls(url,page_count)
for page in htmls:
imgurls = imgurl_get(page) save_imgs(folder,imgurls)

E.开始下载

def download__img(folder='H:\\xxoo',page_count=100):
main_url = 'http://www.zhangzishi.cc/category/welfare'
os.mkdir(folder)
os.chdir(folder)
htmls = page_htmls(main_url,page_count)
for page in htmls:
imgs_url = find_imgs(page) save_imgs(folder,imgs_url) if __name__ == '__main__': download_mm()
#download__img()

F:下载结果

顺便附上全部代码:

import urllib.request
import os def url_open(url):
req = urllib.request.Request(url)
req.add_header('User-Agent','Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/31.0.1650.63 Safari/537.36')
response = urllib.request.urlopen(req)
html = response.read()
print('url_open')
return html def page_htmls(url,count):
html = url_open(url).decode('utf-8')
pages = []
a = html.find('a target="_blank" href=')
i = 0
while a != -1:
i += 1
b = html.find('.html',a,a+200)
if b != -1:
pages.append(html[a+24:b+5])
else:
b = a + 24
a = html.find('a target="_blank" href=',b)
if i == count:
break
for each in pages:
print(each)
return pages
''' '''
def find_imgs(url):
html = url_open(url).decode('utf-8')
imgs = [] a = html.find('img src=')
while a != -1:
b = html.find('.jpg',a,a+100)
if b != -1:
if html[a+9:b+4].find('http') == -1:
imgs.append('http:'+html[a+9:b+4])
else:
imgs.append(html[a+9:b+4])
else:
b = a + 9
a = html.find('img src=',b)
'''
for each in imgs:
print(each)
'''
return imgs def imgurl_get(url):
html = url_open(url).decode('utf-8')
imgurls = []
a = html.find('color: #555555;" src=')
while a != -1:
b = html.find('.jpg',a,a+100)
if b != -1:
imgurls.append('http:'+html[a+22:b+4])
else:
b = a + 22
a = html.find('color: #555555;" src=',b) return imgurls
'''
for each in imgurls:
print(each)
''' def save_imgs(folder,imgs):
for ea in imgs:
filename = ea.split('/')[-1]
with open(filename,'wb') as f:
img = url_open(ea)
f.write(img) def download_mm(folder='H:\\xxoo2',page_count = 100,count = 100):
main_url = 'http://www.zhangzishi.cc/category/welfare'
main_urls = []
for i in range(count):
main_urls.append(main_url+'/page/'+str(i+1))
os.mkdir(folder)
os.chdir(folder)
for url in main_urls:
htmls = page_htmls(url,page_count)
for page in htmls:
imgurls = imgurl_get(page) save_imgs(folder,imgurls) def download__img(folder='H:\\xxoo',page_count=100):
main_url = 'http://www.zhangzishi.cc/category/welfare'
os.mkdir(folder)
os.chdir(folder)
htmls = page_htmls(main_url,page_count)
for page in htmls:
imgs_url = find_imgs(page) save_imgs(folder,imgs_url) if __name__ == '__main__': download_mm()
#download__img()

Python图片爬虫的更多相关文章

  1. python 图片爬虫

    #!/usr/bin/env python #coding:utf-8 import urllib import re def GetHtml(url): """获取HT ...

  2. python图片爬虫 - 批量下载unsplash图片

    前言 unslpash绝对是找图的绝佳场所, 但是进网站等待图片加载真的令人捉急, 仿佛是一场拼RP的战争 然后就开始思考用爬虫帮我批量下载, 等下载完再挑选, 操作了一下不算很麻烦, 顺便也给大家提 ...

  3. python简易爬虫来实现自动图片下载

    菜鸟新人刚刚入住博客园,先发个之前写的简易爬虫的实现吧,水平有限请轻喷. 估计利用python实现爬虫的程序网上已经有太多了,不过新人用来练手学习python确实是个不错的选择.本人借鉴网上的部分实现 ...

  4. Python爬虫02——贴吧图片爬虫V2.0

    Python小爬虫——贴吧图片爬虫V2.0 贴吧图片爬虫进阶:在上次的第一个小爬虫过后,用了几次发现每爬一个帖子,都要自己手动输入帖子链接,WTF这程序简直反人类!不行了不行了得改进改进. 思路: 贴 ...

  5. python多线程爬虫+批量下载斗图啦图片项目(关注、持续更新)

    python多线程爬虫项目() 爬取目标:斗图啦(起始url:http://www.doutula.com/photo/list/?page=1) 爬取内容:斗图啦全网图片 使用工具:requests ...

  6. 第三百四十一节,Python分布式爬虫打造搜索引擎Scrapy精讲—编写spiders爬虫文件循环抓取内容—meta属性返回指定值给回调函数—Scrapy内置图片下载器

    第三百四十一节,Python分布式爬虫打造搜索引擎Scrapy精讲—编写spiders爬虫文件循环抓取内容—meta属性返回指定值给回调函数—Scrapy内置图片下载器 编写spiders爬虫文件循环 ...

  7. python网络爬虫之解析网页的正则表达式(爬取4k动漫图片)[三]

    前言 hello,大家好 本章可是一个重中之重,因为我们今天是要爬取一个图片而不是一个网页或是一个json 所以我们也就不用用到selenium模块了,当然有兴趣的同学也一样可以使用selenium去 ...

  8. python网络爬虫之解析网页的BeautifulSoup(爬取电影图片)[三]

    目录 前言 一.BeautifulSoup的基本语法 二.爬取网页图片 扩展学习 后记 前言 本章同样是解析一个网页的结构信息 在上章内容中(python网络爬虫之解析网页的正则表达式(爬取4k动漫图 ...

  9. Python 实用爬虫-04-使用 BeautifulSoup 去水印下载 CSDN 博客图片

    Python 实用爬虫-04-使用 BeautifulSoup 去水印下载 CSDN 博客图片 其实没太大用,就是方便一些,因为现在各个平台之间的图片都不能共享,比如说在 CSDN 不能用简书的图片, ...

随机推荐

  1. Thinkphp使用phpexcel导入文件并写入数据库

    现实中,我们往往很多地方都需要这样批量导入数据,除了phpexcel还有csv等方法可以解决 下面详细介绍一下使用方法 首先在官方下载安装包解压到本地,然后复制保存到tp框架下的vendor目录下 h ...

  2. python实战--数据结构二叉树

    此文将讲述如何用python实战解决二叉树实验 前面已经讲述了python语言的基本用法,现在让我们实战一下具体明确python的用法 点击我进入python速成笔记 先看一下最终效果图: 首先我们要 ...

  3. qt学习教程1.qt开发环境搭建

    qt学习教程1.qt开发环境搭建 首先下载qt 下载地址:http://download.qt.io/archive/qt/ 此教程使用的版本为5.1.1 下载好后,打开安装包,然后点下一步 选择一个 ...

  4. SSL/TLS 握手过程详解

    在现代社会,互联网已经渗透到人们日常生活的方方面面,娱乐.经济.社会关系等都离不开互联网的帮助.在这个背景下,互联网安全就显得十分重要,没有提供足够的安全保障,人们是不会如此依赖它的.幸运的是,在大牛 ...

  5. ##2.基础服务(SQl,RabbitMQ)-- openstack pike

    2-基础服务(SQl,RabbitMQ) openstack pike 安装 目录汇总 http://www.cnblogs.com/elvi/p/7613861.html ##.基础服务(Mysql ...

  6. Jersy、Jetty和Servlet

    1.Jersy框架 Jersey RESTful WebService框架是一个开源的.产品级别的JAVA框架,是JAX-RS的参考实现.Jersey提供自己的API,其API继承自JAX-RS,提供 ...

  7. jQuer __Ajax DOM

    链接:在线jQueryhttp://www.bootcdn.cn   一.each(遍历)   $("ul li").each(function(index,value){ ale ...

  8. 小白的Python之路 day1 变量

    Python之路,Day1 - Python基础1 变量 变量用于存储在计算机程序中引用和操作的信息.它们还提供了一种用描述性名称标记数据的方法,这样我们的程序就能更清晰地被读者和我们自己理解.将变量 ...

  9. NOIP2017 小凯的疑惑

    题目描述 小凯手中有两种面值的金币,两种面值均为正整数且彼此互素.每种金币小凯都有 无数个.在不找零的情况下,仅凭这两种金币,有些物品他是无法准确支付的.现在小 凯想知道在无法准确支付的物品中,最贵的 ...

  10. Loadrunner 读取文件

    char buffer[1000]; long file_stream; char * filename = "d:\log.txt"; file_stream=fopen(fil ...