Node.js meitulu图片批量下载爬虫1.06版
//====================================================== // https://www.meitulu.com图片批量下载Node.js爬虫1.06 // 1.00 完成图片爬虫,手动输入页数和目录 // 1.01 改写。 // 1.02 手动输入页面url,然后自动解析 // 1.03 从命令行获得页面url,然后自动解析 // 1.04 解决数量节点位置不固定bug和输入状态不退出bug // 1.05 增加自动模式和手动模式 // 1.06 更改为按名字搜索页批量下载 // 2017年11月9日 //====================================================== // 内置https模块,用来解析页面得到页数(图片总数)和目录(图片所在网络目录) var https=require("https"); // 内置http模块,用来通过地址得到图片文件 var http=require("http"); // 用于解析gzip网页(ungzip,https得到的网页是用gzip进行压缩的) var zlib = require('zlib'); // cheerio模块,提供了类似jQuery的功能,用于从HTML code中查找页数和目录 var cheerio = require("cheerio"); // 内置文件处理模块,用于创建目录和图片文件 var fs=require('fs'); // 请求参数JSON。http和https都有使用 var options; // request请求 var req; //-------------------------------------- // 程序入口 //-------------------------------------- function getInput(){ process.stdout.write("\033[35m 请输入按名称搜索的页面URL:\033[039m"); //紫色 process.stdin.resume(); process.stdin.setEncoding('utf8'); process.stdin.on('data',function(text){ process.stdin.end();// 退出输入状态 findPageUrls(text.trim());// trim()是必须的! }); } //-------------------------------------- // 在按名称搜索的页面找到单页url // batchPageUrl sample1:https://www.meitulu.com/t/mikie-hara/ // batchPageUrl sample2:https://www.meitulu.com/search/%E5%8E%9F%E5%B9%B2 // sample2类似的地址可能要尝试多次 //-------------------------------------- function findPageUrls(batchPageUrl){ console.log("开始查找单页urls"); var hostName=""; var Path=""; var arr=batchPageUrl.split("/"); hostName=arr[2]; console.log("hostName="+hostName); // 以是否以‘/’结尾区分两种情况 if(batchPageUrl.charAt(batchPageUrl.length-1)=='/'){ // 带斜杠的是点名字出来的已设定地址 Path="/"+arr[3]+"/"+arr[4]+"/"; }else{ // 不带斜杠的是按关键字搜索出来的 Path="/"+arr[3]+"/"+arr[4]; } console.log("Path="+Path); // 初始化options options={ hostname:hostName, port:443, path:Path,// 子路径 method:'GET', agent:false, gzip: true, }; req=https.request(options,function(resp){ var html = []; resp.on("data", function(data) { html.push(data); }) resp.on("end", function() { var buffer = Buffer.concat(html); zlib.gunzip(buffer, function(err, decoded) { if(err){ console.log("[findPageUrls]不能得到页面:"+batchPageUrl+"对应的html文本,错误是:"+err); console.log(err); }else{ //console.log(decoded.toString());// gzip解压后的html文本 var body=decoded.toString(); var $ = cheerio.load(body); // 查找所有class为boxs的节点下面的ul li a节点 $(".boxs ul li a").each(function(index,element){ var text=$(element).attr("href"); // 有https://www.meitulu.com/item的地址的链接是目标 if(text.indexOf('https://www.meitulu.com/item')!=-1){ console.log("pageUrl="+text); start(text); } }) } }) }).on("error", function() { console.log("获取失败") }) }); // 超时处理 req.setTimeout(5000,function(){ req.abort(); }); // 出错处理 req.on('error',function(err){ if(err.code=="ECONNRESET"){ console.log('[findPageUrls]socket端口连接超时。'); console.log(err); }else{ console.log('[findPageUrls]请求发生错误,err.code:'+err.code); console.log(err); } }); // 请求结束 req.end(); } //-------------------------------------- // 开始单页下载 //-------------------------------------- function start(pageUrl){ console.log("开始下载..."); var hostName=""; var Path=""; var arr=pageUrl.split("/"); hostName=arr[2]; Path="/"+arr[3]+"/"+arr[4]; // 初始化options options={ hostname:hostName, port:443, path:Path,// 子路径 method:'GET', agent:false, gzip: true, }; req=https.request(options,function(resp){ var html = []; resp.on("data", function(data) { html.push(data); }) resp.on("end", function() { var buffer = Buffer.concat(html); zlib.gunzip(buffer, function(err, decoded) { var endIndex=-1; var folder=""; if(err){ console.log("不能得到html文本,因为"+err); console.log("请使用 1.05版本里的 1.手动模式 下载 "+pageUrl); }else{ //console.log(decoded.toString());// gzip解压后的html文本 var body=decoded.toString(); var $ = cheerio.load(body); // 查找所有class为c_l的节点下面的p节点 $(".c_l p").each(function(index,element){ var text=$(element).text(); if(text.indexOf("数量")!=-1 && endIndex==-1){ var arr=text.split(" "); endIndex=arr[1]; } }) // 查找所有class为c_l的节点下面的p节点 $(".content center img").each(function(index,element){ if(index==0){ var text=$(element).attr("src"); var arr=text.split("/"); folder=arr[arr.length-2]; } }) console.log("页数="+endIndex); console.log("目录="+folder); fs.mkdir('./'+folder,function(err){ if(err){ console.log("目录"+folder+"已经存在"); } }); } // 下载图片 for(var i=1;i<=endIndex;i++){ downloadPic(folder,i); } }) }).on("error", function() { console.log("获取失败") }) }); // 超时处理 req.setTimeout(5000,function(){ req.abort(); }); // 出错处理 req.on('error',function(err){ if(err.code=="ECONNRESET"){ console.log('[start]socket端口连接超时。'); console.log(err); }else{ console.log('[start]请求发生错误,err.code:'+err.code); console.log(err); } }); // 请求结束 req.end(); } //-------------------------------------- // 下载图片 // folder:图片所在url的目录 // pinctureIndex:图片序号 //-------------------------------------- function downloadPic(folder,pinctureIndex){ console.log("图片:"+pinctureIndex+"下载开始"); // 初始化options options={ hostname:'mtl.ttsqgs.com',// 这里别加http://,否则会出现ENOTFOUND错误 port:80, path:'/images/img/'+folder+'/'+pinctureIndex+'.jpg',// 子路径 method:'GET', }; req=http.request(options,function(resp){ var imgData = ""; resp.setEncoding("binary"); resp.on('data',function(chunk){ imgData+=chunk; }); resp.on('end',function(){ var fileName="./"+folder+"/"+pinctureIndex+".jpg"; fs.writeFile(fileName, imgData, "binary", function(err){ if(err){ console.log("文件"+fileName+"下载失败."); } console.log("文件"+fileName+"下载成功"); }); }); }); // 超时处理 req.setTimeout(5000,function(){ req.abort(); }); // 出错处理 req.on('error',function(err){ if(err.code=="ECONNRESET"){ console.log('[downloadPic]socket端口连接超时。'); console.log(err); }else{ console.log('[downloadPic]请求发生错误,err.code:'+err.code); console.log(err); } }); // 请求结束 req.end(); } // 调用getInput函数,程序开始 getInput();
2017年11月10日07:02:27
Node.js meitulu图片批量下载爬虫1.06版的更多相关文章
- Node.js meitulu图片批量下载爬虫 1.05版(Final最终版)
//====================================================== // https://www.meitulu.com图片批量下载Node.js爬虫1. ...
- Node.js meitulu图片批量下载爬虫1.04版
//====================================================== // https://www.meitulu.com图片批量下载Node.js爬虫1. ...
- Node.js meitulu图片批量下载爬虫1.03版
//====================================================== // https://www.meitulu.com图片批量下载Node.js爬虫1. ...
- Node.js meitulu图片批量下载爬虫1.02版
以前版本需要先查看网页源码,然后肉眼找到图片数量和子目录,虽说不费事,但多少有点不方便. 于是修改了一下,用cheerio自己去找找到图片数量和子目录,只要修改页面地址就行了.至此社会又前进了一步. ...
- Node.js meitulu图片批量下载爬虫1.01版
在 http://www.cnblogs.com/xiandedanteng/p/7614051.html 一文我曾经书写过一个图片下载爬虫,但原有程序不是为下载图片而设计故有些绕,于是稍微改写了一下 ...
- Node.js meitulu图片批量下载爬虫1.051
原有1.05版程序没有断点续传模式,现在在最近程序基础上改写一版1.051. //====================================================== // m ...
- Node.js mm131图片批量下载爬虫1.01 增加断点续传功能
这里的断点续传不是文件下载时的断点续传,而是指在爬行页面时有时会遇到各种网络中断而从中断前的页面及其数据继续爬行的过程,这个过程和断点续传原理上相似故以此命名.我的具体做法是:在下载出现故障或是图片已 ...
- Node.js abaike图片批量下载爬虫1.02
//====================================================== // abaike图片批量下载爬虫1.02 // 用最近的断点续传框架改写原有1.01 ...
- Node.js nvshens图片批量下载爬虫1.01
//====================================================== // nvshens图片批量下载爬虫1.01 // 用最近的断点续传框架改写原有1.0 ...
随机推荐
- JSOI2016酱油记
高一,第一次参加NOIP. 后悔初中没有报过名...唉,后悔也来不及了. 不知道自己一个暑假干了什么...算法没学多少,脑子倒是越来越不好使了. 过了初赛,数周后一脸茫(meng)然(bi)地去考场. ...
- scrapy模拟知乎登录(无验证码机制)
---恢复内容开始--- spiders 文件夹下新建zhihu.py文件(从dos窗口中进入虚拟环境,再进入工程目录之后输入命令 scrapy genspider zhihu www.zhihu.c ...
- WCF测试小程序
using System;using System.Collections.Generic;using System.Linq;using System.Runtime.Serialization;u ...
- 【SQL】视图
一.虚拟视图 由create table定义的表:以物理形式存在,实际存储在数据库中 视图:虚拟的,并不是一个真正存在的表 1.视图定义 CREATE VIEW <视图名> AS < ...
- 执行监听器( Execution listener)
相关类: org.activiti.engine.delegate.ExecutionListener org.activiti.engine.delegate.TaskListener org.ac ...
- hdu 5174(计数)
Ferries Wheel Time Limit: 2000/1000 MS (Java/Others) Memory Limit: 65536/65536 K (Java/Others)Tot ...
- Laravel5.5新特性
1.新的报错页面 报错更加美观,并标记显示出错误的代码 2.包的自动配置 在conposer.json文件中加入包中的配置,下载后就会自动配置到app.php 文件中,使用更方便 在之前的 Larav ...
- Centos7源码编译安装tengine1.5.1
安装依赖包 yum install pcre pcre-devel openssl openssl-devel gcc make zlib-devel wget -y 下载和创建用户 mkdir /t ...
- python VENV 环境 requirements.txt的生成、使用
python项目 requirements.txt 文件,记录所有依赖包及其精确的版本号.用于新环境部署. 在虚拟环境中pip生成命令(正常环境类似): (venv) $ pip freeze > ...
- MySQL 8.0.13安装教程(windows 64位) (转)
官先去网下载点击MySQL的下载 下载完成后解压 解压完是这个样子 配置初始化的my.ini的文件解压后的目录并没有my.ini文件,没关系可以自行创建.在安装根目录下添加my.ini(新建文本文件, ...