使用nodejs爬取图片
在运行代码前,请确保本机是否有nodejs环境
1 D:\ > node -v
2 v12.1.0 //版本号
需要用到的包
axios //请求页面
cheerio // 把get请求的页面 可以使用jq的方法来获取dom
fs // 文件读写模块
request // 请求模块 用来请求下载地址
path // 路径模块
url // 路由模块
爬虫遵循的规则
- 遵守 Robots 协议,谨慎爬取
- 限制你的爬虫行为,禁止近乎 DDOS 的请求频率,一旦造成服务器瘫痪,约等于网络攻击
- 对于明显反爬,或者正常情况不能到达的页面不能强行突破,否则是 Hacker 行为
- 如果爬取到别人的隐私,立即删除,降低进局子的概率。另外要控制自己的欲望
本次案例百度图片表情包
1 const axios = require("axios")
2 const cheerio = require("cheerio")
3 const fs = require('fs');
4 const request = require("request");
5 const path = require('path');
6 const url = require("url")
7
8 /**
9 * 休眠方法,因为一次访问太多次目标网址会被拉黑
10 * @param {Number} time 休眠时间以毫秒为单位
11 * @returns Promise
12 */
13 const sleep = time => {
14 return new Promise(function (resolve, reject) {
15 setTimeout(function () {
16 resolve();
17 }, time);
18 })
19 }
20
21 /**
22 * 爬取某个地址下的img 图片
23 * @param {String} httpUrl 目标地址
24 * @param {Boolean} isBaidu 是否为百度图片地址
25 */
26 async function start(httpUrl, isBaidu) {
27
28 // 获取目标网址的dom节点,使用jq的方法来获取dom节点
29 const { data } = await axios.get(httpUrl)
30 let img = [];
31 // 针对百度 进行爬取数据
32 if (isBaidu) {
33 img = getBaiDuImg(data)
34 } else {
35 const $ = cheerio.load(data)
36 // 根据dom获取img src
37 $(".imgbox img").each(function () {
38 let src = dealImgUrl($(this).attr("src"), httpUrl)
39 img.push(src)
40 })
41 }
42
43 // 检测当前文件夹是否存在存储图片的文件夹
44 const random = parseInt(Math.random() * 100)
45 const dirPath = "./img" + random
46 if (!fs.existsSync(dirPath)) {
47 fs.mkdirSync(dirPath)
48 }
49 fs.writeFileSync("./data.json", JSON.stringify(img), "utf-8")
50
51 /**
52 * 在这里为什么不使用forEach遍历? 答案在下方链接
53 * https://blog.csdn.net/yumikobu/article/details/84639025
54 */
55 for (let i = 0; i < img.length; i++) {
56 const item = img[i]
57 await sleep(1500)
58
59 console.log(item + "开始下载");
60 // const extname = path.extname(item) || '.jpg'
61 // const filename = (i + 1) + extname
62 let myUrl = new URL(item) // node vision must v10 up!
63 let httpUrl = myUrl.origin + myUrl.pathname
64 let filename = i + path.basename(httpUrl)
65 const write = fs.createWriteStream(dirPath + "/" + filename)
66 request.get(item).on('error', function (err) {
67 console.log(item + "下载失败", err);
68 }).pipe(write)
69 console.log(item + "本地下载结束");
70 }
71 }
72 process.on("exit", () => {
73 console.log("爬取结束");
74 })
75 /**
76 * 处理img的src
77 * @param {String} src 路径
78 * @param {String} pathurl url地址
79 * @returns 返回图片链接地址
80 */
81 function dealImgUrl(src, pathurl) {
82 if (src.substr(0, 8) === 'https://' || src.substr(0, 7) === 'http://' || src.substr(0, 2) === "//" || src.substr(0, 5) === "data:") {
83 return src
84 }
85 return url.resolve(pathurl, src)
86 }
87
88 /**
89 *
90 * @param {String} str 百度返回的html字符
91 * @returns {Array} 返回图片链接地址
92 */
93 function getBaiDuImg(str) {
94 var reg = /app\.setData\(\'imgData\'\,\s+\{(.*?)\"data\":(.*?)\]\}/g
95 var result = reg.exec(str)[2] + ']'
96 result = result.replace(/\'/g, '"')
97 result = JSON.parse(result)
98 const img = []
99 result.forEach(item => {
100 if (item.objURL) {
101 img.push(item.objURL)
102 }
103 })
104 return img
105 }
106 // const HTTPURL = "https://image.baidu.com/search/index?tn=baiduimage&ipn=r&ct=201326592&cl=2&lm=-1&st=-1&fm=result&fr=&sf=1&fmq=1605517415488_R&pv=&ic=0&nc=1&z=&hd=&latest=©right=&se=1&showtab=0&fb=0&width=&height=&face=0&istype=2&ie=utf-8&hs=2&sid=&word=%E7%94%B5%E8%84%91%E5%A3%81%E7%BA%B8++%E6%A2%85%E8%A5%BF"
107 const HTTPURL = "https://image.baidu.com/search/index?tn=baiduimage&ipn=r&ct=201326592&cl=2&lm=-1&st=-1&sf=1&fmq=1389861203899_R&pv=&ic=0&nc=1&z=&se=1&showtab=0&fb=0&width=&height=&face=0&istype=2&ie=utf-8&ala=6&ori_query=%E8%A1%A8%E6%83%85%E5%8C%85&fr=ala&ala=1&alatpl=adress&pos=2&oriquery=%E8%A1%A8%E6%83%85%E5%8C%85&alaTag=0&&word=%E8%A1%A8%E6%83%85%E5%8C%85%20%E6%90%9E%E7%AC%91&hs=2&xthttps=111111"
108 // 开始调用start函数进行爬取图片
109 start(HTTPURL, true)
仔细分析了一下,百度图片并不是在请求页面的时候就把图片的数据渲染到dom上了,而是通过js脚本创建出img的.所以使用正则匹配到img的数据,就可以知道图片链接地址了.


若是一般常规的网站图片 可以使用cheerio来操作dom获取图片路径地址
在代码里使用了一个sleep函数就是为了多次访问网站防止被拉黑,请勿频繁请求!
在爬取个别页面需要配置请求头或者https证书还须自行网上查阅方法.
使用nodejs爬取图片的更多相关文章
- Java jsoup爬取图片
jsoup爬取百度瀑布流图片 是的,Java也可以做网络爬虫,不仅可以爬静态网页的图片,也可以爬动态网页的图片,比如采用Ajax技术进行异步加载的百度瀑布流. 以前有写过用Java进行百度图片的抓取, ...
- python如何使用request爬取图片
下面是代码的简单实现,变量名和方法都是跑起来就行,没有整理,有需要的可以自己整理下: image2local: import requests import time from lxml import ...
- [python爬虫] 爬取图片无法打开或已损坏的简单探讨
本文主要针对python使用urlretrieve或urlopen下载百度.搜狗.googto(谷歌镜像)等图片时,出现"无法打开图片或已损坏"的问题,作者对它进行简单的探讨.同时 ...
- scrapy爬虫,爬取图片
一.scrapy的安装: 本文基于Anacoda3, Anacoda2和3如何同时安装? 将Anacoda3安装在C:\ProgramData\Anaconda2\envs文件夹中即可. 如何用con ...
- scrapy爬虫系列之三--爬取图片保存到本地
功能点:如何爬取图片,并保存到本地 爬取网站:斗鱼主播 完整代码:https://files.cnblogs.com/files/bookwed/Douyu.zip 主要代码: douyu.py im ...
- vue+node+mongoDB火车票H5(七)-- nodejs 爬12306查票接口
菜鸟一枚,业余一直想做个火车票查票的H5,前端页面什么的已经写好了,node+mongoDB 也写了一个车站的接口,但 接下来的爬12306获取车次信息数据一直卡住,网上的爬12306的大部分是pyt ...
- 孤荷凌寒自学python第八十二天学习爬取图片2
孤荷凌寒自学python第八十二天学习爬取图片2 (完整学习过程屏幕记录视频地址在文末) 今天在昨天基本尝试成功的基础上,继续完善了文字和图片的同时爬取并存放在word文档中. 一.我准备爬取一个有文 ...
- 孤荷凌寒自学python第八十一天学习爬取图片1
孤荷凌寒自学python第八十一天学习爬取图片1 (完整学习过程屏幕记录视频地址在文末) 通过前面十天的学习,我已经基本了解了通过requests模块来与网站服务器进行交互的方法,也知道了Beauti ...
- 爬取图片过程遇到的ValueError: Missing scheme in request url: h 报错与解决方法
一 .scrapy整体框架 1.1 scrapy框架图 1.2 scrapy框架各结构解析 item:保存抓取的内容 spider:定义抓取内容的规则,也是我们主要编辑的文件 pipelines:管道 ...
随机推荐
- tail -f 在对文件进行动态追踪时失效的问题
在我是用 tail -f file.txt 对这个文件进行动态追踪时: 我重新打开一个新的终端进行vim编辑这个文件并且保存 这是我们发现,tail -f file.txt'动态追踪的这个文件没有任何 ...
- 【Android初级】如何动态添加菜单项(附源码+避坑)
我们平时在开发过程中,为了灵活多变,除了使用静态的菜单,还有动态添加菜单的需求.今天要分享的功能如下: 在界面的右上角有个更多选项,点开后,有两个子菜单:关于和退出 点击"关于", ...
- centos7 centos-home 磁盘空间转移至centos-root下
亲测可用,转载是为了记录,方便下次自己查看,如后朋友看到,请去查看作者原文,支持原创!!! 原文连接:https://www.cnblogs.com/renshengruxi/p/11782980.h ...
- JavaScript 实现排序算法
参考文章: 十大经典排序算法动画,看我就够了! 1. 冒泡排序 思路 比较所有相邻元素,如果第一个比第二个大,则交换它们 一轮下来,可以保证最后一个数是最大的 执行n-1轮,就可以完成排序 代码 Ar ...
- 一个关于ExecutorService shutdownNow时很奇怪的现象
我们知道很多类库中的阻塞方法在抛出InterruptedException后会清除线程的中断状态(例如 sleep. 阻塞队列的take),但是今天却发现了一个特别奇怪的现象,先给出代码: publi ...
- try-catch 异常捕获学习
#include <iostream> #include <string> #include <vector> #include <stdexcept> ...
- Webpack4.0各个击破(1)html篇
webpack作为前端最火的构建工具,是前端自动化工具链最重要的部分,使用门槛较高.本系列是笔者自己的学习记录,比较基础,希望通过问题 + 解决方式的模式,以前端构建中遇到的具体需求为出发点,学习we ...
- Redis击穿、穿透、雪崩产生原因以及解决思路
击穿 大家都知道,计算机的瓶颈之一就是IO,为了解决内存与磁盘速度不匹配的问题,产生了缓存,将一些热点数据放在内存中,随用随取,降低连接到数据库的请求链接,避免数据库挂掉.需要注意的是,无论是击穿还是 ...
- LOJ2723
LOJ2723 Get Luffy Out 题目大意:给你n对钥匙,每对钥匙只可以用其中的任意一个,钥匙有编号,且不重复.有m个大门,每个门上有两个锁,每个锁对应一个编号的钥匙,只要打开两个锁中的一个 ...
- java 去掉重复的数字
public static void main(String[] args) { String s="1,2,2,2,2,2,3,3,3"; String[] array = s. ...