一,导入包文件

  • os:用于文件操作。这里是为了创建保存图片的目录
  • re:正则表达式模块。代码中包含了数据处理,因此需要导入该模块
  • request:请求模块。通过该模块向对方服务器发送请求获取数据包
  • lxml:通过etree模块中的xpath方法来获取html标签中的属性值或者文本内容
  • headers:根据使用的浏览器不同,headers也不同。这里主要是做一层ua伪装。不然对方服务器很容易就看出我们的请求不是一个正常的请求而是一个爬虫。
import os
import re
import time
import requests
from lxml import etree # 1.ua伪装
headers = {
'Cookie': 'UM_distinctid=183de2bde63bdd-0a9891aebfde0c-26021f51-15f900-183de2bde64211; __gads=ID=12c03794dd79a744-22151ed314d7003e:T=1665879761:RT=1665879761:S=ALNI_MayIUbqx7Eoqn3Rfhw4y3sdBWO8Hw; __gpi=UID=00000b63230f485e:T=1665879761:RT=1665879761:S=ALNI_MY73_h2FkMuU64S-R9TpNud-Rao2Q; _d_id=1ac93cdb5a0e86565209190f7f0314; CNZZDATA1281132404=586521712-1665876889-https%253A%252F%252Fwww.baidu.com%252F%7C1665983833',
'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/106.0.0.0 Safari/537.36'
}

二,程序入口和参数传值

  • main是程序的入口文件。代码的主要逻辑是因为我们发现,要访问的url网址,指定人物的第一页和第二页以后的地址不同。因此不能直接获取。所以需要做一个判断把两种情况都包含在内,这样就可以获取指定人物的所有分页中的图片。这个规律对这个网站的其他人物同样适用。
  • 将url传递给get_url函数中进行图片链接的获取并返回回来。返回值是links。这里存储着返回归来的图片地址。
  • 再将获取到的links数组传递给download函数进行处理和下载。
if __name__ == '__main__':
# 每个url链接的第一页的页码和第二页以后的页面不同因此这里需要做一个判断
for i in range(1, 2):
if i == 1:
url = 'http://www.cgtpw.com/xgmn/732.html'
else:
url = f'http://www.cgtpw.com/xgmn/732_{i + 1}.html' # 将url传递给get_url函数,并获得返回后的结果
links = get_url(url) # 将get_url返回后的结果传递给download函数
download(links)

  

三,获取图片链接

  • 注释中都细讲了每个步骤的意思,请参照注释。
# 2.获取url
def get_url(url):
all_link = [] # 用于存储获取到的链接

# 发送请求
r = requests.get(url)
time.sleep(1)
r.encoding = r.apparent_encoding # 解决代码中文乱码问题
html = etree.HTML(r.text)
# 获取链接指定目录页下的所有链接
pic_links = html.xpath('//div[@class="art-picBox"]/ul/li//a/@href')
# 去重
set_links = list(set(pic_links)) # 获取的链接不完整,因此需要加上链接头部拼接链接
for link in set_links:
index_urls = 'http://www.cgtpw.com' + link # 将拼接好的链接添加到all_link数组中并返回
all_link.append(index_urls)
return all_link

四,下载并保存图片

# 3.下载图片
def download(links):
# 遍历链接数组
for link in links:
# 通过正则表达式将链接中.html以外的部分提取出来。因为每个链接页跟之前一样第一页和第二页页码不同需要做处理
new_str_list = re.sub(r'\.html$', '', link) try:
# 为了存储图片要给图片编号因此这里用到了枚举
for num, i in enumerate(range(1, 19)):
num += 1 # 如果链接为第一页则直接用Link,反之则拼接一下页码
if i == 1:
url = link
else:
url = new_str_list + f'_{i}.html'
r = requests.get(url, headers=headers)
time.sleep(1) # 这里是为了防止中文乱码
r.encoding = r.apparent_encoding
# 提取链接中的所有图片和title名称
html = etree.HTML(r.text)
title = html.xpath('//div[@class="art-top"]/h1/text()')[0]
img_urls = html.xpath('/html/body/div[3]/div[2]//div[@class="artbody"]//img/@src') # 创建目录,如果目录不存在就创建目录文件夹。为了存储不同类型的照片
if not os.path.exists(f'美女图片/{title}'):
os.makedirs(f'美女图片/{title}') # 获取到每个人对应的所有地址后进行逐一遍历
for img in img_urls:
# 将图片以二进制码流的方式输出
pics = requests.get(img, headers=headers).content
# 存盘
with open(f'美女图片/{title}/{title}_{num}.jpg', 'wb') as f:
f.write(pics)
print(f'已下载>>{title}...编号:{num}')
# 关闭读写
f.close()
except Exception:
continue

五,完整代码

import os
import re
import time
import requests
from lxml import etree # 1.ua伪装
headers = {
'Cookie': 'UM_distinctid=183de2bde63bdd-0a9891aebfde0c-26021f51-15f900-183de2bde64211; __gads=ID=12c03794dd79a744-22151ed314d7003e:T=1665879761:RT=1665879761:S=ALNI_MayIUbqx7Eoqn3Rfhw4y3sdBWO8Hw; __gpi=UID=00000b63230f485e:T=1665879761:RT=1665879761:S=ALNI_MY73_h2FkMuU64S-R9TpNud-Rao2Q; _d_id=1ac93cdb5a0e86565209190f7f0314; CNZZDATA1281132404=586521712-1665876889-https%253A%252F%252Fwww.baidu.com%252F%7C1665983833',
'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/106.0.0.0 Safari/537.36'
} # 2.获取url
def get_url(url):
all_link = [] # 用于存储获取到的链接 r = requests.get(url)
time.sleep(1)
r.encoding = r.apparent_encoding # 解决代码中文乱码问题
html = etree.HTML(r.text)
# 获取链接指定目录页下的所有链接
pic_links = html.xpath('//div[@class="art-picBox"]/ul/li//a/@href')
# 去重
set_links = list(set(pic_links)) # 获取的链接不完整,因此需要加上链接头部拼接链接
for link in set_links:
index_urls = 'http://www.cgtpw.com' + link # 将拼接好的链接添加到all_link数组中并返回
all_link.append(index_urls)
return all_link # 3.下载图片
def download(links):
# 遍历链接数组
for link in links:
# 通过正则表达式将链接中.html以外的部分提取出来。因为每个链接页跟之前一样第一页和第二页页码不同需要做处理
new_str_list = re.sub(r'\.html$', '', link) try:
# 为了存储图片要给图片编号因此这里用到了枚举
for num, i in enumerate(range(1, 19)):
num += 1 # 如果链接为第一页则直接用Link,反之则拼接一下页码
if i == 1:
url = link
else:
url = new_str_list + f'_{i}.html'
r = requests.get(url, headers=headers)
time.sleep(1) # 这里是为了防止中文乱码
r.encoding = r.apparent_encoding
# 提取链接中的所有图片和title名称
html = etree.HTML(r.text)
title = html.xpath('//div[@class="art-top"]/h1/text()')[0]
img_urls = html.xpath('/html/body/div[3]/div[2]//div[@class="artbody"]//img/@src') # 创建目录,如果目录不存在就创建目录文件夹。为了存储不同类型的照片
if not os.path.exists(f'美女图片/{title}'):
os.makedirs(f'美女图片/{title}') # 获取到每个人对应的所有地址后进行逐一遍历
for img in img_urls:
# 将图片以二进制码流的方式输出
pics = requests.get(img, headers=headers).content
# 存盘
with open(f'美女图片/{title}/{title}_{num}.jpg', 'wb') as f:
f.write(pics)
print(f'已下载>>{title}...编号:{num}')
# 关闭读写
f.close()
except Exception:
continue if __name__ == '__main__':
# 每个url链接的第一页的页码和第二页以后的页面不同因此这里需要做一个判断
for i in range(1, 2):
if i == 1:
url = 'http://www.cgtpw.com/xgmn/732.html'
else:
url = f'http://www.cgtpw.com/xgmn/732_{i + 1}.html' # 将url传递给get_url函数,并获得返回后的结果
links = get_url(url) # 将get_url返回后的结果传递给download函数
download(links)

爬取春光图片网美女图片

【python爬虫】爬取美女图片的更多相关文章

  1. python爬虫-爬取百度图片

    python爬虫-爬取百度图片(转) #!/usr/bin/python# coding=utf-8# 作者 :Y0010026# 创建时间 :2018/12/16 16:16# 文件 :spider ...

  2. Python爬虫 —— 抓取美女图片(Scrapy篇)

    杂谈: 之前用requests模块爬取了美女图片,今天用scrapy框架实现了一遍. (图片尺度确实大了点,但老衲早已无恋红尘,权当观赏哈哈哈) Item: # -*- coding: utf-8 - ...

  3. Python爬虫爬取网页图片

    没想到python是如此强大,令人着迷,以前看见图片总是一张一张复制粘贴,现在好了,学会python就可以用程序将一张张图片,保存下来. 今天逛贴吧看见好多美图,可是图片有点多,不想一张一张地复制粘贴 ...

  4. Python爬虫 —— 抓取美女图片

    代码如下: #coding:utf-8 # import datetime import requests import os import sys from lxml import etree im ...

  5. 使用Python批量爬取美女图片

    运行截图 实列代码: from bs4 import BeautifulSoup import requests,re,os headers = { 'User-Agent': 'Mozilla/5. ...

  6. 使用Python爬虫爬取网络美女图片

    代码地址如下:http://www.demodashi.com/demo/13500.html 准备工作 安装python3.6 略 安装requests库(用于请求静态页面) pip install ...

  7. Scrapy爬取美女图片第四集 突破反爬虫(上)

     本周又和大家见面了,首先说一下我最近正在做和将要做的一些事情.(我的新书<Python爬虫开发与项目实战>出版了,大家可以看一下样章) 技术方面的事情:本次端午假期没有休息,正在使用fl ...

  8. python爬虫---爬取王者荣耀全部皮肤图片

    代码: import requests json_headers = { "User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win ...

  9. Scrapy爬取美女图片 (原创)

    有半个月没有更新了,最近确实有点忙.先是华为的比赛,接着实验室又有项目,然后又学习了一些新的知识,所以没有更新文章.为了表达我的歉意,我给大家来一波福利... 今天咱们说的是爬虫框架.之前我使用pyt ...

  10. Scrapy爬取美女图片第三集 代理ip(上) (原创)

    首先说一声,让大家久等了.本来打算那天进行更新的,可是一细想,也只有我这样的单身狗还在做科研,大家可能没心思看更新的文章,所以就拖到了今天.不过忙了521,522这一天半,我把数据库也添加进来了,修复 ...

随机推荐

  1. 关于nth-of-type的注意事项

    普通使用 nth-of-type: <div class="box"> <div> 第一个元素 </div> <p>没有用的元素&l ...

  2. nodejs mongo数据库连接、查询、显示

    初学nodejs,涉及内容太多,总找不到如何能处理数据之间的交换.提取,显示.查找众多资料,终于调试成功,为免遗忘,特记录如下: 安装nodejs,mongo数据库在这里不做记录了. 1.编写serv ...

  3. decode procedure

    1  test data preparation 1>  select representative data voice to match real application scenario ...

  4. c#和JS数据加密(转)

    前台提交按纽 后以赋值后台取值    Base64编解码   C# /* 编码规则 Base64编码的思想是是采用64个基本的ASCII码字符对数据进行重新编码. 它将需要编码的数据拆分成字节数组. ...

  5. jmeter之阶段式压测

    一.bzm - Concurrency Thread Group 1.什么是阶梯式压测 阶梯式压测,就是对系统的压力呈现阶梯性增加的过程,每个阶段压力值都要增加一个数量值,最终达到一个预期值.然后保持 ...

  6. JDMasking v0.1.0-beta 发布

    JDMasking 全称是jdbc data masking,是一款零代码修改.无重启.基于JDBC的动态数据脱敏软件. JDMasking 主要对实现jdbc的驱动进行字节码的增强,支持对运行中的程 ...

  7. Vue父子组件传值.sync

    <template> <div class="content"> <btn :btnName.sync='num' ></btn> ...

  8. P1706 全排列问题(DFS)

    全排列问题 题目描述 按照字典序输出自然数1到n所有不重复的排列,即n的全排列,要求所产生的任一数字序列中不允许出现重复的数字. 输入格式 一个整数n 输出格式 由1 ~ n组成的所有不重复的数字序列 ...

  9. appium 遇到连接设备状态是offline

    1.查看连接手机设备 adb derivces 时,手机状态是offline状态(无法正常连接). 解决法: 1.adb kill-server 终止adb调试服务 2.adb start-serve ...

  10. 使用VSCode调试C#时,Console.ReadLine()弹出命令框调试

    原文链接:https://blog.csdn.net/qq_29503199/article/details/88351498   要在调试时读取输入,可以在 launch.json 中使用配置中的 ...