Node.js meitulu图片批量下载爬虫1.06版
//======================================================
// https://www.meitulu.com图片批量下载Node.js爬虫1.06
// 1.00 完成图片爬虫,手动输入页数和目录
// 1.01 改写。
// 1.02 手动输入页面url,然后自动解析
// 1.03 从命令行获得页面url,然后自动解析
// 1.04 解决数量节点位置不固定bug和输入状态不退出bug
// 1.05 增加自动模式和手动模式
// 1.06 更改为按名字搜索页批量下载
// 2017年11月9日
//======================================================
// 内置https模块,用来解析页面得到页数(图片总数)和目录(图片所在网络目录)
var https=require("https");
// 内置http模块,用来通过地址得到图片文件
var http=require("http");
// 用于解析gzip网页(ungzip,https得到的网页是用gzip进行压缩的)
var zlib = require('zlib');
// cheerio模块,提供了类似jQuery的功能,用于从HTML code中查找页数和目录
var cheerio = require("cheerio");
// 内置文件处理模块,用于创建目录和图片文件
var fs=require('fs');
// 请求参数JSON。http和https都有使用
var options;
// request请求
var req;
//--------------------------------------
// 程序入口
//--------------------------------------
function getInput(){
process.stdout.write("\033[35m 请输入按名称搜索的页面URL:\033[039m"); //紫色
process.stdin.resume();
process.stdin.setEncoding('utf8');
process.stdin.on('data',function(text){
process.stdin.end();// 退出输入状态
findPageUrls(text.trim());// trim()是必须的!
});
}
//--------------------------------------
// 在按名称搜索的页面找到单页url
// batchPageUrl sample1:https://www.meitulu.com/t/mikie-hara/
// batchPageUrl sample2:https://www.meitulu.com/search/%E5%8E%9F%E5%B9%B2
// sample2类似的地址可能要尝试多次
//--------------------------------------
function findPageUrls(batchPageUrl){
console.log("开始查找单页urls");
var hostName="";
var Path="";
var arr=batchPageUrl.split("/");
hostName=arr[2];
console.log("hostName="+hostName);
// 以是否以‘/’结尾区分两种情况
if(batchPageUrl.charAt(batchPageUrl.length-1)=='/'){
// 带斜杠的是点名字出来的已设定地址
Path="/"+arr[3]+"/"+arr[4]+"/";
}else{
// 不带斜杠的是按关键字搜索出来的
Path="/"+arr[3]+"/"+arr[4];
}
console.log("Path="+Path);
// 初始化options
options={
hostname:hostName,
port:443,
path:Path,// 子路径
method:'GET',
agent:false,
gzip: true,
};
req=https.request(options,function(resp){
var html = [];
resp.on("data", function(data) {
html.push(data);
})
resp.on("end", function() {
var buffer = Buffer.concat(html);
zlib.gunzip(buffer, function(err, decoded) {
if(err){
console.log("[findPageUrls]不能得到页面:"+batchPageUrl+"对应的html文本,错误是:"+err);
console.log(err);
}else{
//console.log(decoded.toString());// gzip解压后的html文本
var body=decoded.toString();
var $ = cheerio.load(body);
// 查找所有class为boxs的节点下面的ul li a节点
$(".boxs ul li a").each(function(index,element){
var text=$(element).attr("href");
// 有https://www.meitulu.com/item的地址的链接是目标
if(text.indexOf('https://www.meitulu.com/item')!=-1){
console.log("pageUrl="+text);
start(text);
}
})
}
})
}).on("error", function() {
console.log("获取失败")
})
});
// 超时处理
req.setTimeout(5000,function(){
req.abort();
});
// 出错处理
req.on('error',function(err){
if(err.code=="ECONNRESET"){
console.log('[findPageUrls]socket端口连接超时。');
console.log(err);
}else{
console.log('[findPageUrls]请求发生错误,err.code:'+err.code);
console.log(err);
}
});
// 请求结束
req.end();
}
//--------------------------------------
// 开始单页下载
//--------------------------------------
function start(pageUrl){
console.log("开始下载...");
var hostName="";
var Path="";
var arr=pageUrl.split("/");
hostName=arr[2];
Path="/"+arr[3]+"/"+arr[4];
// 初始化options
options={
hostname:hostName,
port:443,
path:Path,// 子路径
method:'GET',
agent:false,
gzip: true,
};
req=https.request(options,function(resp){
var html = [];
resp.on("data", function(data) {
html.push(data);
})
resp.on("end", function() {
var buffer = Buffer.concat(html);
zlib.gunzip(buffer, function(err, decoded) {
var endIndex=-1;
var folder="";
if(err){
console.log("不能得到html文本,因为"+err);
console.log("请使用 1.05版本里的 1.手动模式 下载 "+pageUrl);
}else{
//console.log(decoded.toString());// gzip解压后的html文本
var body=decoded.toString();
var $ = cheerio.load(body);
// 查找所有class为c_l的节点下面的p节点
$(".c_l p").each(function(index,element){
var text=$(element).text();
if(text.indexOf("数量")!=-1 && endIndex==-1){
var arr=text.split(" ");
endIndex=arr[1];
}
})
// 查找所有class为c_l的节点下面的p节点
$(".content center img").each(function(index,element){
if(index==0){
var text=$(element).attr("src");
var arr=text.split("/");
folder=arr[arr.length-2];
}
})
console.log("页数="+endIndex);
console.log("目录="+folder);
fs.mkdir('./'+folder,function(err){
if(err){
console.log("目录"+folder+"已经存在");
}
});
}
// 下载图片
for(var i=1;i<=endIndex;i++){
downloadPic(folder,i);
}
})
}).on("error", function() {
console.log("获取失败")
})
});
// 超时处理
req.setTimeout(5000,function(){
req.abort();
});
// 出错处理
req.on('error',function(err){
if(err.code=="ECONNRESET"){
console.log('[start]socket端口连接超时。');
console.log(err);
}else{
console.log('[start]请求发生错误,err.code:'+err.code);
console.log(err);
}
});
// 请求结束
req.end();
}
//--------------------------------------
// 下载图片
// folder:图片所在url的目录
// pinctureIndex:图片序号
//--------------------------------------
function downloadPic(folder,pinctureIndex){
console.log("图片:"+pinctureIndex+"下载开始");
// 初始化options
options={
hostname:'mtl.ttsqgs.com',// 这里别加http://,否则会出现ENOTFOUND错误
port:80,
path:'/images/img/'+folder+'/'+pinctureIndex+'.jpg',// 子路径
method:'GET',
};
req=http.request(options,function(resp){
var imgData = "";
resp.setEncoding("binary");
resp.on('data',function(chunk){
imgData+=chunk;
});
resp.on('end',function(){
var fileName="./"+folder+"/"+pinctureIndex+".jpg";
fs.writeFile(fileName, imgData, "binary", function(err){
if(err){
console.log("文件"+fileName+"下载失败.");
}
console.log("文件"+fileName+"下载成功");
});
});
});
// 超时处理
req.setTimeout(5000,function(){
req.abort();
});
// 出错处理
req.on('error',function(err){
if(err.code=="ECONNRESET"){
console.log('[downloadPic]socket端口连接超时。');
console.log(err);
}else{
console.log('[downloadPic]请求发生错误,err.code:'+err.code);
console.log(err);
}
});
// 请求结束
req.end();
}
// 调用getInput函数,程序开始
getInput();
2017年11月10日07:02:27
Node.js meitulu图片批量下载爬虫1.06版的更多相关文章
- Node.js meitulu图片批量下载爬虫 1.05版(Final最终版)
//====================================================== // https://www.meitulu.com图片批量下载Node.js爬虫1. ...
- Node.js meitulu图片批量下载爬虫1.04版
//====================================================== // https://www.meitulu.com图片批量下载Node.js爬虫1. ...
- Node.js meitulu图片批量下载爬虫1.03版
//====================================================== // https://www.meitulu.com图片批量下载Node.js爬虫1. ...
- Node.js meitulu图片批量下载爬虫1.02版
以前版本需要先查看网页源码,然后肉眼找到图片数量和子目录,虽说不费事,但多少有点不方便. 于是修改了一下,用cheerio自己去找找到图片数量和子目录,只要修改页面地址就行了.至此社会又前进了一步. ...
- Node.js meitulu图片批量下载爬虫1.01版
在 http://www.cnblogs.com/xiandedanteng/p/7614051.html 一文我曾经书写过一个图片下载爬虫,但原有程序不是为下载图片而设计故有些绕,于是稍微改写了一下 ...
- Node.js meitulu图片批量下载爬虫1.051
原有1.05版程序没有断点续传模式,现在在最近程序基础上改写一版1.051. //====================================================== // m ...
- Node.js mm131图片批量下载爬虫1.01 增加断点续传功能
这里的断点续传不是文件下载时的断点续传,而是指在爬行页面时有时会遇到各种网络中断而从中断前的页面及其数据继续爬行的过程,这个过程和断点续传原理上相似故以此命名.我的具体做法是:在下载出现故障或是图片已 ...
- Node.js abaike图片批量下载爬虫1.02
//====================================================== // abaike图片批量下载爬虫1.02 // 用最近的断点续传框架改写原有1.01 ...
- Node.js nvshens图片批量下载爬虫1.01
//====================================================== // nvshens图片批量下载爬虫1.01 // 用最近的断点续传框架改写原有1.0 ...
随机推荐
- python 监控redis的进程与端口
#!/usr/bin/python # -*- coding:utf-8 -*- import glob,psutil import json,os,datetime import collectio ...
- python 多进程multiprocessing 模块
multiprocessing 常用方法: cpu_count():统计cpu核数 multiprocessing.cpu_count() active_children() 获取所有子进程 mult ...
- HUST-1350 Trie
1350 - Trie 时间限制:1秒 内存限制:128兆 104 次提交 35 次通过 题目描述 In computer science, a trie, is an ordered tree da ...
- 记录一次WebService使用的经历
于业务需要,需要和第三方对接一些接口,但是问题是,他们的接口提供是webservice的,本人只精通restful接口(也就是说我比较年轻^-^).好在对面人特别奈斯,一顿指导我,感谢. 废话不多说了 ...
- 用LoopBack搭建RESTful 风格的API
1.安装node.NPM 2.安装strongloop npm install -g --unsafe-perm install strongloop 3.创建工作目录并且配置loopback应用 m ...
- java 访问 kerberos 认证的 kafka
<?xml version="1.0" encoding="UTF-8"?> <project xmlns="http://mave ...
- opencv对鼠标的响应
#include <cv.h> #include <highgui.h> #include <stdio.h> #pragma comment(lib,&quo ...
- 整数快速乘法/快速幂+矩阵快速幂+Strassen算法
快速幂算法可以说是ACM一类竞赛中必不可少,并且也是非常基础的一类算法,鉴于我一直学的比较零散,所以今天用这个帖子总结一下 快速乘法通常有两类应用:一.整数的运算,计算(a*b) mod c 二.矩 ...
- Linux命令之kill
kill [-s signal | -p] [ --] pid… kill –l [signal] 终止指定进程.命令kill将指定的信号发送到指定的进程或进程组.如果没有指定信号,则发送SIGTER ...
- RabbitMQ (六) 订阅者模式之路由模式 ( direct )
路由模式下,生产者发送消息时需要指定一个路由键(routingKey),交换机只会把消息转发给包含该路由键的队列 这里,我们改变一下声明交换机的方式. 我们通过管理后台添加一个交换机. 添加后,生产者 ...