scrapy抓取校花网图片
一:基础版(抓取首页图片)
爬虫py文件代码:
1 # -*- coding: utf-8 -*-
2 import scrapy
3 import sys
4 import io
5 from scrapy.selector import Selector
6 from scrapy.http import Request
7 from ..items import Day96XiaohuaItem
8 import re
9 sys.stdout = io.TextIOWrapper(sys.stdout.buffer, encoding='utf-8')
10
11
12 class XiaohuaSpider(scrapy.Spider):
13 name = 'xiaohua'
14 allowed_domains = ['www.xueshengmai.com/hua/']
15 start_urls = ['http://www.xueshengmai.com/hua/']
16
17 def parse(self, response):
18 # ------------持久化数据--------------
19 hxs = Selector(response=response).xpath("//div[@class='item_t']/div[@class='img']/a/img").extract()
20 # print(hxs)
21 for i in hxs:
22 # print(i)
23 title = re.findall("alt=(.*) src=",i)[0].strip('"')+".jpg"
24 src = "http://www.xueshengmai.com%s"%re.findall("src=(.*)>",i)[0].strip('"')
25 print(title,src)
26 item_obj = Day96XiaohuaItem(title=title, src=src)
27 yield item_obj
items.py 代码:
1 import scrapy
2
3
4 class Day96XiaohuaItem(scrapy.Item):
5 # define the fields for your item here like:
6 # name = scrapy.Field()
7 title=scrapy.Field()
8 src=scrapy.Field()
pipelines代码:
import requests class Day96XiaohuaPipeline(object):
def process_item(self, item, spider):
file_path="imgs/%s"%item["title"]
file_src=item["src"]
f=open(file_path,"wb")
img_date=requests.get(file_src)
f.write(img_date.content)
f.close()
二:分页抓取校花网图片
下面代码和上面如出一辙,只将不同的代码块写下:
1 # -*- coding: utf-8 -*-
2 import scrapy
3 import sys
4 import io
5 from scrapy.selector import Selector
6 from scrapy.http import Request
7 from ..items import Day96XiaohuaItem
8 import re
9
10 sys.stdout = io.TextIOWrapper(sys.stdout.buffer, encoding='utf-8')
11
12
13 class XiaohuaSpider(scrapy.Spider):
14 name = 'xiaohua'
15 allowed_domains = ['www.xueshengmai.com/hua/']
16 start_urls = ['http://www.xueshengmai.com/hua/']
17
18 def parse(self, response):
19 # ------------持久化数据--------------
20 hxs = Selector(response=response).xpath("//div[@class='item_t']/div[@class='img']/a/img").extract()
21 # print(hxs)
22 for i in hxs:
23 # print(i)
24 title = re.findall("alt=(.*) src=", i)[0].strip('"') + ".jpg"
25 src = "http://www.xueshengmai.com%s" % re.findall("src=(.*)>", i)[0].strip('"')
26 print("正在努力抓取校花网图片...",title, src)
27 item_obj = Day96XiaohuaItem(title=title, src=src)
28 yield item_obj
29
30 hxs2 = Selector(response=response).xpath("//div[@class='page_num']/a").extract()
31 for i in hxs2:
32 page_number = re.findall(">(.*)<", i)[0]
33 # print("=========",page_number)
34 if page_number not in ["首页", "上一页", "下一页", "尾页"]:
35 url = "http://www.xueshengmai.com/list-1-%s.html" % page_number
36 # print("-------", url)
37 # 将新要访问的url添加到调度器
38 yield Request(url=url, callback=self.parse,dont_filter=True)
同时应该在settings中加上一句:
1 DEPTH_LIMIT = 1
否则程序将会一直深入下载,直到网站图片资源穷尽...
scrapy抓取校花网图片的更多相关文章
- Go语言实战-爬取校花网图片
一.目标网站分析 爬取校花网http://www.xiaohuar.com/大学校花所有图片. 经过分析,所有图片分为四个页面,http://www.xiaohuar.com/list-1-0.htm ...
- python实战项目 — 爬取 校花网图片
重点: 1. 指定路径创建文件夹,判断是否存在 2. 保存图片文件 # 获得校花网的地址,图片的链接 import re import requests import time import os ...
- Scrapy爬虫框架之爬取校花网图片
Scrapy Scrapy是一个为了爬取网站数据,提取结构性数据而编写的应用框架. 其可以应用在数据挖掘,信息处理或存储历史数据等一系列的程序中.其最初是为了页面抓取 (更确切来说, 网络抓取 )所设 ...
- scrapy爬取校花网男神图片保存到本地
爬虫四部曲,本人按自己的步骤来写,可能有很多漏洞,望各位大神指点指点 1.创建项目 scrapy startproject xiaohuawang scrapy.cfg: 项目的配置文件xiaohua ...
- Python-爬取校花网视频(单线程和多线程版本)
一.参考文章 python爬虫爬取校花网视频,单线程爬取 爬虫----爬取校花网视频,包含多线程版本 上述两篇文章都是对校花网视频的爬取,由于时间相隔很久了,校花网上的一些视频已经不存在了,因此上述文 ...
- python爬虫基础应用----爬取校花网视频
一.爬虫简单介绍 爬虫是什么? 爬虫是首先使用模拟浏览器访问网站获取数据,然后通过解析过滤获得有价值的信息,最后保存到到自己库中的程序. 爬虫程序包括哪些模块? python中的爬虫程序主要包括,re ...
- Scrapy爬虫实例——校花网
学习爬虫有一段时间了,今天使用Scrapy框架将校花网的图片爬取到本地.Scrapy爬虫框架相对于使用requests库进行网页的爬取,拥有更高的性能. Scrapy官方定义:Scrapy是用于抓取网 ...
- 二、Item Pipeline和Spider-----基于scrapy取校花网的信息
Item Pipeline 当Item在Spider中被收集之后,它将会被传递到Item Pipeline,这些Item Pipeline组件按定义的顺序处理Item. 每个Item Pipeline ...
- Requests 校花网图片爬取
纪念我们闹过的矛盾,只想平淡如水 import requestsimport reurl = 'http://www.xiaohuar.com/list-1-%s.html'for i in rang ...
- 第六篇 - bs4爬取校花网
环境:python3 pycharm 模块:requests bs4 urlretrieve os time 第一步:获取网页源代码 import requests from bs4 imp ...
随机推荐
- 在 HTML 页面中使用 React
该方案使用场景:在html页面中使用react,主js文件index.js和其它非react功能使用js模块化的方式开发,适合轻量级中小型应用 index.html代码: 引入react.react- ...
- Python 使用pip或easy_install或手动安装库/模块/软件包
pip是easy_install的改进版,提供更好的提示信息,删除package等功能.老版本的python中只有easy_install,没有pip.本文主要介绍使用pip或easy_install ...
- Codeforces Round #700 (Div. 2) A ~ D1个人题解
Codeforces Round #700 (Div. 2) 比赛链接: Click Here 1480A. Yet Another String Game 因为Alice是要追求小,Bob追求大值, ...
- java进阶(21)--集合基础
一.基本概念 1.数组其实是一个集合,二集合是一个容器 2.集合不能直接存储基本数据类型,也不能存java对象,存储的是引用数据类型 list.add(100); //自动装箱Integer 3.ja ...
- 08_N叉树的层序遍历
N叉树的层序遍历 给定一个 N 叉树,返回其节点值的层序遍历.(即从左到右,逐层遍历). 树的序列化输入是用层序遍历,每组子节点都由 null 值分隔(参见示例). 示例 1: 输入:root = [ ...
- ClickHouse的Join算法
ClickHouse的Join算法 ClickHouse是一款开源的列式分析型数据库(OLAP),专为需要超低延迟分析查询大量数据的场景而生.为了实现分析应用可能达到的最佳性能,分析型数据库(OLAP ...
- 修改Keil uvison4 字体样式
1.点击扳手配置 2.点击Colors & Fonts,选择其中的8051:Editor C Files,选择Text,点击右侧的Courier New... 3.在里面就可以调节字体了
- Laravel - 虚拟主机引入静态资源
一. 注意: 引用的静态文件要放在根目录,不要放在assets目录下 二. 引入方法 1. 模板中引入 css <link rel="stylesheet" hr ...
- tiup 工具离线安装与简单导出数据说明
tiup 工具离线安装说明 mirror的创建 能上网的机器上面进行如下操作: curl --proto '=https' --tlsv1.2 -sSf https://tiup-mirrors.pi ...
- [转帖]linux块I/O总体概括
直接先上重点,linux中IO栈的完全图如下: 系统中能够随机访问固定大小数据片的硬件设备称作块设备.固定大小的数据片称为块.常见的块设备就是硬盘了.不能随机访问的就是字符设备了,管理块设备比字符设备 ...