一、我们要用python第三方库:

import requests
import re

二、找到自己感兴趣的网页图片:

for i in range(1,2):
url = "https://sc.chinaz.com/tupian/index.html" # 网站地址
if i ==1:
url = "https://sc.chinaz.com/tupian/index.html"#网站地址
else:
url = "https://sc.chinaz.com/tupian/index_%s.html" %i
res = requests.get(url)
res.encoding = res.apparent_encoding# 自适应字符编码设置

三、用正则表达式提取面每个页面图片对应的详情页的地址

获取图片地址和图片名字
res_url_i=re.findall('<img src2="(.*?)" alt=".*?">',res.text)
res_url_name = re.findall('<img src2=".*?" alt="(.*?)">',res.text)

四、我们在压缩下载

    for res_url_i1, res_url_name1 in zip(res_url_i, res_url_name):
res_url_i = "https:" + res_url_i1
image_url = requests.get(res_url_i)
f = open("./111/%s.jpg"%res_url_name1,"wb")
print("%s.jpg" % res_url_name1 + "下载成功!!!")
f.write(image_url.content)
f.close()

完整代码如下:

import requests
import re
# 循环爬取前2页的页面
for i in range(1,2):
url = "https://sc.chinaz.com/tupian/index.html" # 网站地址
if i ==1:
url = "https://sc.chinaz.com/tupian/index.html"#网站地址
else:
url = "https://sc.chinaz.com/tupian/index_%s.html" %i
# #获取页面
res = requests.get(url)
res.encoding = res.apparent_encoding# 自适应字符编码设置
# 提取页面中每个图片对应的详情页的地址 正则 列表
res_url_i=re.findall('<img src2="(.*?)" alt=".*?">',res.text)
res_url_name = re.findall('<img src2=".*?" alt="(.*?)">',res.text)
for res_url_i1, res_url_name1 in zip(res_url_i, res_url_name):
res_url_i = "https:" + res_url_i1
image_url = requests.get(res_url_i)
f = open("./111/%s.jpg"%res_url_name1,"wb")
print("%s.jpg" % res_url_name1 + "下载成功!!!")
f.write(image_url.content)
f.close()

提示:

每个网页地址不一样,正则表达式也不一样,文件操作地址也不一样,我的仅供参考,不要完成相信

python 爬站长素材网页图片的更多相关文章

  1. python爬取基础网页图片

    python基础爬虫总结 1.爬取信息原理 与浏览器客户端类似,向网站的服务器发送一个请求,该请求一般是url,也就是网址.之后服务器响应一个html页面给客户端,当然也有其他数据类型的信息,这些就是 ...

  2. python爬取某个网页的图片-如百度贴吧

    python爬取某个网页的图片-如百度贴吧 作者:vpoet mail:vpoet_sir@163.com 注:随意copy,不用告诉我 #coding:utf-8 import urllib imp ...

  3. Python 爬取单个网页所需要加载的地址和CSS、JS文件地址

    Python 爬取单个网页所需要加载的URL地址和CSS.JS文件地址 通过学习Python爬虫,知道根据正式表达式匹配查找到所需要的内容(标题.图片.文章等等).而我从测试的角度去使用Python爬 ...

  4. 使用python爬取P站图片

    刚开学时有一段时间周末没事,于是经常在P站的特辑里收图,但是P站加载图片的速度比较感人,觉得自己身为计算机专业,怎么可以做一张张图慢慢下这么low的事,而且这样效率的确也太低了,于是就想写个程序来帮我 ...

  5. Python爬取养眼图片

    1.准备 各位绅士们,你可能会觉得疫情在家无聊,那么现在我们的Python语言可以满足你们的需求.项目需要的工具(1)Python3(2)requests库requests库可以通过代码pip ins ...

  6. python 爬取知乎图片

    先上完整代码 import requests import time import datetime import os import json import uuid from pyquery im ...

  7. Python爬取全站妹子图片,差点硬盘走火了!

    在这严寒的冬日,为了点燃我们的热情,今天小编可是给大家带来了偷偷收藏了很久的好东西.大家要注意点哈,我第一次使用的时候,大意导致差点坏了大事哈! 1.所需库安装 2.网站分析 首先打开妹子图的官网(m ...

  8. 用python爬取全网妹子图片【附源码笔记】

    这是晚上没事无聊写的python爬虫小程序,专门爬取妹子图的,养眼用的,嘻嘻!身为程序狗只会这个了! 废话不多说,代码附上,仅供参考学习! """ 功能:爬取妹子图全网妹 ...

  9. python爬取动态网页数据,详解

    原理:动态网页,即用js代码实现动态加载数据,就是可以根据用户的行为,自动访问服务器请求数据,重点就是:请求数据,那么怎么用python获取这个数据了? 浏览器请求数据方式:浏览器向服务器的api(例 ...

随机推荐

  1. NSIS检测到窗口最小化闪烁提示

    #检测到窗口为最小化时闪烁提示 !include nsDialogs.nsh #编写:水晶石 Name "IsIconic Example" OutFile "IsIco ...

  2. golang开发:go并发的建议(完)

    上次说了一下Go语言布道师 Dave Cheney对Go并发的建议,个人觉得最重要的一条,这次主要想说一下这个. 8.3. Never start a goroutine without knowni ...

  3. 云原生时代的DevOps平台设计之道

    开发人员与运维人员是 IT 领域很重要的两大人群,他们都会参与到各种业务系统的建设过程中去.DevOps 是近年间火爆起来的一种新理念,这种理念被很多人错误的解读为"由开发人员(Dev)学习 ...

  4. react.js 实现音乐播放、下一曲、以及删除歌曲(仅播放列表)

    import React, { Component } from 'react'; export default class Music extends Component {   construct ...

  5. 如何用Virtualbox搭建一个虚拟机

    序言 各位好啊,我是会编程的蜗牛,作为java开发者,我们肯定会接触Linux服务器,除了使用云服务搭建Linux服务器外,我们一般也可以在自己的电脑上安装虚拟机来搭建Linux服务器用于各种功能的验 ...

  6. 齐博X1-栏目的调用3

    本节继续说明栏目的调用之同级别栏目 同级栏目的调用  fun('sort@brother',$fid,'cms') 这个函数用的比较多,特别是栏目页,在一个页面会把一个父级栏目下的子级栏目全部列出来, ...

  7. faker

    faker是一个生成伪造数据的Python第三方库,可以伪造城市,姓名,文班等各自信息,而且支持中文   安装 pip3 install faker   使用 # 导包 from faker impo ...

  8. 聊聊消息队列(MQ)那些事

    每年的双十一期间,各大电商平台流量暴增,同时,电商平台系统的负载压力也会很大.譬如订单支付的场景,每个订单支付成功后,服务器可能要完成扣减积分.扣减优惠券.扣减商品库存.发短信等一系列操作.单个用户请 ...

  9. C#和Halcon交互实现图片的放大和缩小

    [转载] C#和halcon实现图片的放大和缩小 e.Delta>0表示鼠标向上滚动,e.Delta<0表示向下滚动 要拖动的图像为Measure.currentImageL,可以更换. ...

  10. 2022春每日一题:Day 41

    题目:I Hate It 一个基础的线段树模板,单点修改+区间查询 代码: #include <cstdio> #include <cstdlib> #include < ...