由于最近博导承接了一项国家科技项目,需要对大量的网站进行爬取,但是现在的很多网站都使用了反爬手段,比如限制一个session的不同网页的访问时间间隔,甚至更有甚者直接对IP地址也做了限制。对于限制session内访问的时间间隔我们只能采用多个session并行的方式,而无法减少访问时间间隔,但是对于限制IP的手段我们往往没有很好的解决方法,本文主要就是对于限制IP的反爬手段给出了一种解决方案。

本文对于限制IP的反爬手段给出的解决方案也是十分的简单的,但是也并不容易的,说白了就是使用多个vpn,或者说是使用一个vpn池。比如我正在使用的一个VPN:

可以看到这种的VPN其实提供的都是一个VPN主机池,这就是本文给出的方案,那就是用VPN主机池实现IP反爬的突防。比如,你这个VPN池一共有100个VPN主机,但是你同时可以连接8个客户端,那你就可以在8个局域网的主机上运行该VPN的客户端并开启局域网代理,然后其他的主机运行爬虫程序就可以将网络代理地址写为这8个局域网VPN客户端的主机地址。这样做还有一个问题,那就是如果这8个IP地址使用一段时间后被限制了,那么我们就需要换其他的8个VPN服务器IP地址,这是一个难题,不过这里我们可以使用linux端的VPN客户端来解决。我们可以在8个linux主机上开启集群管理服务,使用一键式的部署方式来解决,如果那个主机的连接的VPN服务器地址被限制,我们就远程ssh的方式替换掉对应的配置,使用下一个VPN服务器的地址,以此来实现快速的切换。甚至我们也可以用python写一个自动化的控制脚本来实现,不过这并不是重点。

本文的主要idea就是使用vpn代理的方式突破爬虫的IP限制,也就是使用VPN服务器代理池的方式来解决单IP受限的问题。不论是在高校实验室里面还是家里的光纤路由器其实都是共享IP,而无论是共享IP还是独立IP我们一般可以使用的往往都是单一的IP,一旦某个待爬取的网站对我们的现有IP进行限制我们就需要更换IP,而如何更换IP呢,最开始的想法是用手机的移动上网来共享网络,但是这样搞往往手机的上网费用会很高,这种费用往往在国家课题结项的时候进行报销,再一个就是手机网速往往又很慢,并且手机运营商就那几个,用手机共享网络会不会搞了几台手机号依旧出现IP受限的问题呢,这也是很不好说的,因此使用VPN服务器池的方式是目前能想到的最靠谱的方式了。

=====================================

如何解决单IP爬取网站的单IP受限问题的更多相关文章

  1. requests 使用免费的代理ip爬取网站

    import requests import queue import threading from lxml import etree #要爬取的URL url = "http://xxx ...

  2. Python 利用 BeautifulSoup 爬取网站获取新闻流

    0. 引言 介绍下 Python 用 Beautiful Soup 周期性爬取 xxx 网站获取新闻流: 图 1 项目介绍 1. 开发环境 Python: 3.6.3 BeautifulSoup:   ...

  3. python爬取高匿代理IP(再也不用担心会进小黑屋了)

    为什么要用代理IP 很多人学习python,不知道从何学起.很多人学习python,掌握了基本语法过后,不知道在哪里寻找案例上手.很多已经做案例的人,却不知道如何去学习更加高深的知识.那么针对这三类人 ...

  4. 使用scrapy爬取网站的商品数据

    目标是爬取网站http://www.muyingzhijia.com/上全部的商品数据信息,包括商品的一级类别,二级类别,商品title,品牌,价格. 搜索了一下,python的scrapy是一个不错 ...

  5. 利用linux curl爬取网站数据

    看到一个看球网站的以下截图红色框数据,想爬取下来,通常爬取网站数据一般都会从java或者python爬取,但本人这两个都不会,只会shell脚本,于是硬着头皮试一下用shell爬取,方法很笨重,但旨在 ...

  6. 如何使用robots禁止各大搜索引擎爬虫爬取网站

    ps:由于公司网站配置的测试环境被百度爬虫抓取,干扰了线上正常环境的使用,刚好看到每次搜索淘宝时,都会有一句由于robots.txt文件存在限制指令无法提供内容描述,于是便去学习了一波 1.原来一般来 ...

  7. python 实现爬取网站下所有URL

    python3 实现爬取网站下所有URL 获取首页元素信息: 首页的URL链接获取: 遍历第一次返回的结果: 递归循环遍历: 全部代码如下: 小结: python3.6 requests && ...

  8. Python脚本爬取网站美女照片

    上次无意之中看到一个网站,里面全是美女的照片,我就心想,哪天有时间了得把这网站的所有美女照片都得爬下来.今天有时间,写了点代码,爬去了网站的所有照片.附上战果!图片实在是太多了,爬半个多小时 先附上所 ...

  9. 【Python成长之路】Python爬虫 --requests库爬取网站乱码(\xe4\xb8\xb0\xe5\xa)的解决方法【华为云分享】

    [写在前面] 在用requests库对自己的CSDN个人博客(https://blog.csdn.net/yuzipeng)进行爬取时,发现乱码报错(\xe4\xb8\xb0\xe5\xaf\x8c\ ...

  10. C# 关于爬取网站数据遇到csrf-token的分析与解决

    需求 某航空公司物流单信息查询,是一个post请求.通过后台模拟POST HTTP请求发现无法获取页面数据,通过查看航空公司网站后,发现网站使用避免CSRF攻击机制,直接发挥40X错误. 关于CSRF ...

随机推荐

  1. work07

    day08作业: 必做题:============================================================ 第一题: 定义一个字符串s = "Hell ...

  2. Java正则表达式语法及简单示例

    import java.util.regex.Matcher; import java.util.regex.Pattern; public class TestMatcher { public st ...

  3. python 注册nacos 进行接口规范定义

    背景: 一般场景 python服务经常作为java下游的 算法服务或者 数据处理服务 但是使用http 去调用比较不灵活,通过注册到nacos上进行微服务调用才是比较爽的 1.定义feginapi的接 ...

  4. MATLAB神经网络工具箱使用介绍

      本文介绍MATLAB软件中神经网络拟合(Neural Net Fitting)工具箱的具体使用方法.   在MATLAB人工神经网络ANN代码这篇文章中,我们介绍了MATLAB软件中神经网络(AN ...

  5. springboot使用mail提示没有该类型的bean

    @Autowired private JavaMailSenderImpl javaMailSender; 自动注入时提示没有该类型的Bean. 原因 没有配置邮件发送相关的配置信息. spring: ...

  6. GIS数据获取:土地利用与土壤属性、DEM、水体水系数据

      本文对目前主要的土壤属性.地表覆盖.数字高程模型与水体水系矢量数据获取网站加以整理与介绍.   本文为"GIS数据获取整理"专栏中第三篇独立博客,因此本文全部标题均由" ...

  7. Springboot整合Apollo

    一.Apollo作用 随着程序功能的日益复杂,程序的配置日益增多:各种功能的开关.参数的配置.服务器的地址-- 对程序配置的期望值也越来越高:配置修改后实时生效,灰度发布,分环境.分集群管理配置,完善 ...

  8. AIGC的行业发展

    1. AIGC的行业发展 AIGC(Artificial Intelligence Generated Content,人工智能生成内容)是利用人工智能技术来自动生成内容的一种新型内容创作方式.它基于 ...

  9. MQ和RabbitMQ

    一.微服务间通讯有同步和异步两种方式: 同步通讯:就像打电话,需要实时响应. 异步通讯:就像发邮件,不需要马上回复. Feign调用就属于同步方式,虽然调用可以实时得到结果,但存在下面的问题: 1.耦 ...

  10. UML类图的表示

    1.类的表示方法 2.接口的两种表示方法 3.类的继承怎么表示 空心三角形+实线 4.类实现接口 空心三角形+虚线 5.关联(association)关系 实线箭头 6.聚合(aggregation) ...