scrapy抓取校花网图片
一:基础版(抓取首页图片)
爬虫py文件代码:
1 # -*- coding: utf-8 -*-
2 import scrapy
3 import sys
4 import io
5 from scrapy.selector import Selector
6 from scrapy.http import Request
7 from ..items import Day96XiaohuaItem
8 import re
9 sys.stdout = io.TextIOWrapper(sys.stdout.buffer, encoding='utf-8')
10
11
12 class XiaohuaSpider(scrapy.Spider):
13 name = 'xiaohua'
14 allowed_domains = ['www.xueshengmai.com/hua/']
15 start_urls = ['http://www.xueshengmai.com/hua/']
16
17 def parse(self, response):
18 # ------------持久化数据--------------
19 hxs = Selector(response=response).xpath("//div[@class='item_t']/div[@class='img']/a/img").extract()
20 # print(hxs)
21 for i in hxs:
22 # print(i)
23 title = re.findall("alt=(.*) src=",i)[0].strip('"')+".jpg"
24 src = "http://www.xueshengmai.com%s"%re.findall("src=(.*)>",i)[0].strip('"')
25 print(title,src)
26 item_obj = Day96XiaohuaItem(title=title, src=src)
27 yield item_obj
items.py 代码:
1 import scrapy
2
3
4 class Day96XiaohuaItem(scrapy.Item):
5 # define the fields for your item here like:
6 # name = scrapy.Field()
7 title=scrapy.Field()
8 src=scrapy.Field()
pipelines代码:
import requests class Day96XiaohuaPipeline(object):
def process_item(self, item, spider):
file_path="imgs/%s"%item["title"]
file_src=item["src"]
f=open(file_path,"wb")
img_date=requests.get(file_src)
f.write(img_date.content)
f.close()
二:分页抓取校花网图片
下面代码和上面如出一辙,只将不同的代码块写下:
1 # -*- coding: utf-8 -*-
2 import scrapy
3 import sys
4 import io
5 from scrapy.selector import Selector
6 from scrapy.http import Request
7 from ..items import Day96XiaohuaItem
8 import re
9
10 sys.stdout = io.TextIOWrapper(sys.stdout.buffer, encoding='utf-8')
11
12
13 class XiaohuaSpider(scrapy.Spider):
14 name = 'xiaohua'
15 allowed_domains = ['www.xueshengmai.com/hua/']
16 start_urls = ['http://www.xueshengmai.com/hua/']
17
18 def parse(self, response):
19 # ------------持久化数据--------------
20 hxs = Selector(response=response).xpath("//div[@class='item_t']/div[@class='img']/a/img").extract()
21 # print(hxs)
22 for i in hxs:
23 # print(i)
24 title = re.findall("alt=(.*) src=", i)[0].strip('"') + ".jpg"
25 src = "http://www.xueshengmai.com%s" % re.findall("src=(.*)>", i)[0].strip('"')
26 print("正在努力抓取校花网图片...",title, src)
27 item_obj = Day96XiaohuaItem(title=title, src=src)
28 yield item_obj
29
30 hxs2 = Selector(response=response).xpath("//div[@class='page_num']/a").extract()
31 for i in hxs2:
32 page_number = re.findall(">(.*)<", i)[0]
33 # print("=========",page_number)
34 if page_number not in ["首页", "上一页", "下一页", "尾页"]:
35 url = "http://www.xueshengmai.com/list-1-%s.html" % page_number
36 # print("-------", url)
37 # 将新要访问的url添加到调度器
38 yield Request(url=url, callback=self.parse,dont_filter=True)
同时应该在settings中加上一句:
1 DEPTH_LIMIT = 1
否则程序将会一直深入下载,直到网站图片资源穷尽...
scrapy抓取校花网图片的更多相关文章
- Go语言实战-爬取校花网图片
一.目标网站分析 爬取校花网http://www.xiaohuar.com/大学校花所有图片. 经过分析,所有图片分为四个页面,http://www.xiaohuar.com/list-1-0.htm ...
- python实战项目 — 爬取 校花网图片
重点: 1. 指定路径创建文件夹,判断是否存在 2. 保存图片文件 # 获得校花网的地址,图片的链接 import re import requests import time import os ...
- Scrapy爬虫框架之爬取校花网图片
Scrapy Scrapy是一个为了爬取网站数据,提取结构性数据而编写的应用框架. 其可以应用在数据挖掘,信息处理或存储历史数据等一系列的程序中.其最初是为了页面抓取 (更确切来说, 网络抓取 )所设 ...
- scrapy爬取校花网男神图片保存到本地
爬虫四部曲,本人按自己的步骤来写,可能有很多漏洞,望各位大神指点指点 1.创建项目 scrapy startproject xiaohuawang scrapy.cfg: 项目的配置文件xiaohua ...
- Python-爬取校花网视频(单线程和多线程版本)
一.参考文章 python爬虫爬取校花网视频,单线程爬取 爬虫----爬取校花网视频,包含多线程版本 上述两篇文章都是对校花网视频的爬取,由于时间相隔很久了,校花网上的一些视频已经不存在了,因此上述文 ...
- python爬虫基础应用----爬取校花网视频
一.爬虫简单介绍 爬虫是什么? 爬虫是首先使用模拟浏览器访问网站获取数据,然后通过解析过滤获得有价值的信息,最后保存到到自己库中的程序. 爬虫程序包括哪些模块? python中的爬虫程序主要包括,re ...
- Scrapy爬虫实例——校花网
学习爬虫有一段时间了,今天使用Scrapy框架将校花网的图片爬取到本地.Scrapy爬虫框架相对于使用requests库进行网页的爬取,拥有更高的性能. Scrapy官方定义:Scrapy是用于抓取网 ...
- 二、Item Pipeline和Spider-----基于scrapy取校花网的信息
Item Pipeline 当Item在Spider中被收集之后,它将会被传递到Item Pipeline,这些Item Pipeline组件按定义的顺序处理Item. 每个Item Pipeline ...
- Requests 校花网图片爬取
纪念我们闹过的矛盾,只想平淡如水 import requestsimport reurl = 'http://www.xiaohuar.com/list-1-%s.html'for i in rang ...
- 第六篇 - bs4爬取校花网
环境:python3 pycharm 模块:requests bs4 urlretrieve os time 第一步:获取网页源代码 import requests from bs4 imp ...
随机推荐
- 【3rd Party】nlohmann json 基础用法
参考链接:Here 什么是nlohman json ? nlohman json GitHub - nlohmann/json: JSON for Modern C++ 是一个为现代C++(C++11 ...
- JSP | IDEA中部署tomcat,运行JSP文件,编译后的JSP文件存放地点总结
首先保证你正常部署了Tomcat,并且正常在浏览器中运行了JSP文件. 参考博客:Here 那么Tomcat编译后的JSP文件(_jsp.class 和 _jsp.java)的存放地点: (一)一般存 ...
- Python 在VSCode中使用
PyCharm到期了,所以打算换成VS Code(宇宙最好用编辑器?)试一试.但是下载之后不太会配置,网上不少的文章也比较旧了,所以打算自己看着官方教程配置一下.(VSCode版本:1.49.2,Py ...
- AtCoder Beginner Contest 195 Editorial
AtCoder Beginner Contest 195 Editorial Problem A - Health M Death(opens new window) 只要检查 \(H\equiv 0 ...
- rem在手机移动端app中的兼容适配问题
这是我之前一直使用的第一种rem方案.贴代码 1 <script> 2 // 适用于750的设计稿 3 var iScale = 1; 4 // 通过页面加载的时候去获取用户设备的物理像素 ...
- P1541-DP【绿】
刚开始理解错题意了,题中说"玩家每次需要从所有的爬行卡片中选择一张之前没有使用过的爬行卡片"指的是不能用同一张卡片,我给理解成不能连续用同一种卡片了.后来想想其实题目中的说法歧义不 ...
- 基于python安装app
一.背景 有时候我们在做Android兼容性测试时,经常会使用adb命令一台一台的安装app,比较费事. 二.实现方法 利用python命令行启动web服务器,在手机浏览器输入存放apk包的目录url ...
- spring--@Autowired @Qualifier @Resource @Value 四者的区别
@Autowired,@Qualifier,@Resource,和 @Value 是 Spring 框架中用于依赖注入的注解,它们各有特点和用途: @Autowired: @Autowired 注解用 ...
- VUE - 配置跨域
'/api': { target: 'http://localhost:8088/', //这里后台的地址模拟的;应该填写你们真实的后台接口 changOrigin: true, //允许跨域 pat ...
- Redis-主从复制-哨兵模式