一、我们要用python第三方库:

  1. import requests
  2. import re

二、找到自己感兴趣的网页图片:

  1. for i in range(1,2):
  2. url = "https://sc.chinaz.com/tupian/index.html" # 网站地址
  3. if i ==1:
  4. url = "https://sc.chinaz.com/tupian/index.html"#网站地址
  5. else:
  6. url = "https://sc.chinaz.com/tupian/index_%s.html" %i
  1. res = requests.get(url)
  2. res.encoding = res.apparent_encoding# 自适应字符编码设置

三、用正则表达式提取面每个页面图片对应的详情页的地址

  1. 获取图片地址和图片名字
    res_url_i=re.findall('<img src2="(.*?)" alt=".*?">',res.text)
  2. res_url_name = re.findall('<img src2=".*?" alt="(.*?)">',res.text)

四、我们在压缩下载

  1. for res_url_i1, res_url_name1 in zip(res_url_i, res_url_name):
  2. res_url_i = "https:" + res_url_i1
  3. image_url = requests.get(res_url_i)
  4. f = open("./111/%s.jpg"%res_url_name1,"wb")
  5. print("%s.jpg" % res_url_name1 + "下载成功!!!")
  6. f.write(image_url.content)
  7. f.close()

完整代码如下:

  1. import requests
  2. import re
  3. # 循环爬取前2页的页面
  4. for i in range(1,2):
  5. url = "https://sc.chinaz.com/tupian/index.html" # 网站地址
  6. if i ==1:
  7. url = "https://sc.chinaz.com/tupian/index.html"#网站地址
  8. else:
  9. url = "https://sc.chinaz.com/tupian/index_%s.html" %i
  10. # #获取页面
  11. res = requests.get(url)
  12. res.encoding = res.apparent_encoding# 自适应字符编码设置
  13. # 提取页面中每个图片对应的详情页的地址 正则 列表
  14. res_url_i=re.findall('<img src2="(.*?)" alt=".*?">',res.text)
  15. res_url_name = re.findall('<img src2=".*?" alt="(.*?)">',res.text)
  16. for res_url_i1, res_url_name1 in zip(res_url_i, res_url_name):
  17. res_url_i = "https:" + res_url_i1
  18. image_url = requests.get(res_url_i)
  19. f = open("./111/%s.jpg"%res_url_name1,"wb")
  20. print("%s.jpg" % res_url_name1 + "下载成功!!!")
  21. f.write(image_url.content)
  22. f.close()

提示:

每个网页地址不一样,正则表达式也不一样,文件操作地址也不一样,我的仅供参考,不要完成相信

python 爬站长素材网页图片的更多相关文章

  1. python爬取基础网页图片

    python基础爬虫总结 1.爬取信息原理 与浏览器客户端类似,向网站的服务器发送一个请求,该请求一般是url,也就是网址.之后服务器响应一个html页面给客户端,当然也有其他数据类型的信息,这些就是 ...

  2. python爬取某个网页的图片-如百度贴吧

    python爬取某个网页的图片-如百度贴吧 作者:vpoet mail:vpoet_sir@163.com 注:随意copy,不用告诉我 #coding:utf-8 import urllib imp ...

  3. Python 爬取单个网页所需要加载的地址和CSS、JS文件地址

    Python 爬取单个网页所需要加载的URL地址和CSS.JS文件地址 通过学习Python爬虫,知道根据正式表达式匹配查找到所需要的内容(标题.图片.文章等等).而我从测试的角度去使用Python爬 ...

  4. 使用python爬取P站图片

    刚开学时有一段时间周末没事,于是经常在P站的特辑里收图,但是P站加载图片的速度比较感人,觉得自己身为计算机专业,怎么可以做一张张图慢慢下这么low的事,而且这样效率的确也太低了,于是就想写个程序来帮我 ...

  5. Python爬取养眼图片

    1.准备 各位绅士们,你可能会觉得疫情在家无聊,那么现在我们的Python语言可以满足你们的需求.项目需要的工具(1)Python3(2)requests库requests库可以通过代码pip ins ...

  6. python 爬取知乎图片

    先上完整代码 import requests import time import datetime import os import json import uuid from pyquery im ...

  7. Python爬取全站妹子图片,差点硬盘走火了!

    在这严寒的冬日,为了点燃我们的热情,今天小编可是给大家带来了偷偷收藏了很久的好东西.大家要注意点哈,我第一次使用的时候,大意导致差点坏了大事哈! 1.所需库安装 2.网站分析 首先打开妹子图的官网(m ...

  8. 用python爬取全网妹子图片【附源码笔记】

    这是晚上没事无聊写的python爬虫小程序,专门爬取妹子图的,养眼用的,嘻嘻!身为程序狗只会这个了! 废话不多说,代码附上,仅供参考学习! """ 功能:爬取妹子图全网妹 ...

  9. python爬取动态网页数据,详解

    原理:动态网页,即用js代码实现动态加载数据,就是可以根据用户的行为,自动访问服务器请求数据,重点就是:请求数据,那么怎么用python获取这个数据了? 浏览器请求数据方式:浏览器向服务器的api(例 ...

随机推荐

  1. MySQL基础、MySQL安装和MariaDB安装

    MySQL基础 目录 MySQL基础 关系型数据库介绍 数据结构模型 RDBMS专业名词 关系型数据库的常见组件 SQL语句 MySQL安装与配置 MySQL安装 MariaDB安装 关系型数据库介绍 ...

  2. 挑战海量数据:基于Apache DolphinScheduler对千亿级数据应用实践

    点亮 ️ Star · 照亮开源之路 GitHub:https://github.com/apache/dolphinscheduler 精彩回顾 近期,初灵科技的大数据开发工程师钟霈合在社区活动的线 ...

  3. Python学习笔记----操作字符串

    1.字符串相加.列表相加.列表和字符串不能混着使用 #序列相加 a="hello" b="python" c=a+b print("字符串相加的结果& ...

  4. JavaScript基础&实战(1)js的基本语法、标识符、数据类型

    文章目录 1.JavaScript简介 2.输出语句 2.1 代码块 2.2 测试结果 3.JS编写位置 3.1代码 3.2 测试结果 4.基本语法 4.1 代码 5.标识符 5.1 代码 6.数据类 ...

  5. ESP32 IDF 获取天气信息

    一.注册天气获取账号 我使用的知心天气,没有获取天气账号的小伙伴可以去注册一下,知心天气官网:https://www.seniverse.com/ 取得天气获取的API后,可以直接在浏览器中访问测试一 ...

  6. git 多个commit 如何合并

    git 多个commit 如何合并 本篇主要介绍一下 git 中多个commit 如何合并, 因为commit 太多 会导致提交记录混乱, 所以有时候会把多个commit 合并成一个 保持提交记录干净 ...

  7. Win环境安装Protobuf 2.0 版本

    转载请注明出处: 安装步骤 下载 protobuf-2.5.0.zip 与 protoc-2.5.0-win32.zip 下载链接 : https://github.com/protocolbuffe ...

  8. VBA---Basic

    题记: 之前用VBA做过几个小工具,用来实现办公自动化的.在编写过程中也遇到了一些问题,但最终都通过网友们的分享予以解决,现对其中的一些知识点进行总结. common sense 取消文件刷新: Ap ...

  9. SimpleDateFormat线程安全问题排查

    一. 问题现象 运营部门反馈使用小程序配置的拉新现金红包活动二维码,在扫码后跳转至404页面. 二. 原因排查 首先,检查扫码后的跳转链接地址不是对应二维码的实际URL,根据代码逻辑推测,可能是acc ...

  10. (C++) C++ new operator, operator new 及 placement new (待整理)

    https://blog.csdn.net/songthin/article/details/1703966 https://cplusplus.com/reference/new/operator ...