一、前言

随着互联网的不断发展,越来越多的应用需要使用高匿代理IP才能访问目标网站,而代理IP作为一种能够隐藏本机真实IP地址的工具,在网络抓取、搜索引擎排名、广告投放、反爬虫等方面有着广泛的应用场景。但是,由于代理IP的稳定性难以保证,而且容易被反爬虫机制识别和封杀,为解决这些问题,我们可以通过构建一个代理IP池来实现代理IP的有效管理和使用。

本文将介绍如何使用Python语言和开源爬虫框架Scrapy,构建一个高匿代理IP池,并提供完整的代码和案例。

二、代理IP池的构建流程

构建代理IP池的大致流程如下:

1.爬取代理IP数据
2.验证代理IP的有效性和匿名性
3.将有效的代理IP保存到代理IP池中
4.从代理IP池中随机获取一个代理IP并使用

接下来,我们将详细介绍每个步骤的实现方式。

2.1、爬取代理IP数据

在构建代理IP池之前,我们需要先收集一些代理IP数据。这里我们可以使用一些代理IP网站上的API接口或者直接爬取网站上的代理IP数据。

以爬取站大爷代理网站为例,其网站上提供了一个可以直接访问的代理IP列表页面,我们可以从该页面中提取出代理IP地址和端口号等信息。

以下为爬取站大爷代理网站的代理IP数据的代码实现:

import scrapy

class XiciSpider(scrapy.Spider):
    name = 'xici'
    allowed_domains = ['www.zdaye.com']
    start_urls = ['http://www.zdaye.com/']

def parse(self, response):
        item_list = response.xpath('//table[@id="ip_list"]//tr')[1:]
        for item in item_list:
            ip = item.xpath('.//td[2]/text()').get()
            port = item.xpath('.//td[3]/text()').get()
            yield {
                'ip': ip,
                'port': port
            }

以上代码中,我们使用Scrapy框架爬取西刺代理网站,爬取其网页上的代理IP地址和端口号,并以字典的格式保存到内存中。

2.2、验证代理IP的有效性和匿名性

由于代理IP的可用性和匿名性是不稳定的,我们需要定期验证其有效性和匿名性。验证代理IP可用性的方法是通过访问目标网站并获取目标网页的数据,如果获取到了数据,则说明该代理IP可用;否则,则说明该代理IP不可用。

验证代理IP匿名性的方法是通过访问代理IP网站上的检测页面,检测代理IP是否真正地隐藏了客户端的真实IP地址。我们可以使用Python的requests库发起HTTP请求和获取HTTP响应,判断目标网站的状态码和返回的内容是否符合要求。

以下为验证代理IP有效性和匿名性的代码实现:

import requests

def validate_proxy(proxy):
    url = 'http://httpbin.org/get'
    proxies = {
        'http': 'http://{ip}:{port}'.format(**proxy),
        'https': 'https://{ip}:{port}'.format(**proxy)
    }
    try:
        response = requests.get(url, proxies=proxies, timeout=10)
        if response.status_code == 200 and response.json().get('origin'):
            return True
    except:
        pass
    return False

def check_anonymous(proxy):
    url = 'https://www.baidu.com/'
    headers = {
        'User-Agent': 'Mozilla/5.0'
    }
    proxies = {
        'http': 'http://{ip}:{port}'.format(**proxy),
        'https': 'https://{ip}:{port}'.format(**proxy)
    }
    try:
        response = requests.get(url, headers=headers, proxies=proxies, timeout=10)
        if response.status_code == 200 and 'baidu' in response.text:
            return True
    except:
        pass
    return False

以上代码中,我们定义了两个函数validate_proxy和check_anonymous,用于验证代理IP的有效性和匿名性。其中,validate_proxy函数会访问httpbin.org网站,并从响应数据中获取客户端的ip地址,如果获取到了数据,则说明该代理IP可用;否则,则说明不可用。check_anonymous函数会访问百度首页,并判断访问结果是否为正常页面,如果是,则说明代理IP匿名性高;否则,则说明代理IP匿名性低。

2.3、将有效的代理IP保存到代理IP池中

当我们验证出一批有效的代理IP时,可以将其保存到代理IP池中,以便于后续使用。

以下为将代理IP保存到代理IP池中的代码实现:

import redis

class ProxyPool(object):

def __init__(self):
        self.client = redis.Redis(host='localhost', port=6379, db=0, password='')

def add(self, proxy):
        self.client.sadd('proxy_pool', str(proxy))

def remove(self, proxy):
        self.client.srem('proxy_pool', str(proxy))

def random(self):
        return eval(self.client.srandmember('proxy_pool'))

def all(self):
        return [eval(p) for p in self.client.smembers('proxy_pool')]

以上代码中,我们使用Redis数据库作为代理IP池的存储工具,通过在Redis中创建一个set类型的key值proxy_pool,来存储所有可用的代理IP。在这里,我们定义了一个名为ProxyPool的类,用于对代理IP池进行增删改查的操作。

2.4、从代理IP池中随机获取一个代理IP并使用

当我们需要使用代理IP访问目标网站时,可以从代理IP池中随机获取一个代理IP,并将其添加到requests库的代理参数proxies中,以便于使用代理IP来访问目标网站。

以下为从代理IP池中随机获取一个代理IP的代码实现:

def get_random_proxy():
    proxy_pool = ProxyPool()
    proxy = proxy_pool.random()
    while not validate_proxy(proxy):
        proxy_pool.remove(proxy)
        proxy = proxy_pool.random()
    return proxy

def download(url):
    proxy = get_random_proxy()
    proxies = {
        'http': 'http://{ip}:{port}'.format(**proxy),
        'https': 'https://{ip}:{port}'.format(**proxy)
    }
    headers = {
        'User-Agent': 'Mozilla/5.0'
    }
    try:
        response = requests.get(url, headers=headers, proxies=proxies, timeout=10)
        if response.status_code == 200:
            return response.text
    except:
        pass
    return None

以上代码中,我们使用get_random_proxy随机获取一个代理IP,并使用validate_proxy函数验证该代理IP是否可用,如果该代理IP不可用,则从代理IP池中删除该代理IP,并重新获取。当获取到可用的代理IP后,我们将其添加到requests库的参数proxies中,并使用requests库来访问目标网站。

三、完整代码实现

将以上代码整合到一个文件中,得到完整的高匿代理IP池的实现方式,代码如下:

import scrapy
import requests
import redis

class XiciSpider(scrapy.Spider):
    name = 'xici'
    allowed_domains = ['www.xicidaili.com']
    start_urls = ['http://www.xicidaili.com/']

def parse(self, response):
        item_list = response.xpath('//table[@id="ip_list"]//tr')[1:]
        for item in item_list:
            ip = item.xpath('.//td[2]/text()').get()
            port = item.xpath('.//td[3]/text()').get()
            proxy = {
                'ip': ip,
                'port': port
            }
            if validate_proxy(proxy) and check_anonymous(proxy):
                add_proxy(proxy)

def validate_proxy(proxy):
    url = 'http://httpbin.org/get'
    proxies = {
        'http': 'http://{ip}:{port}'.format(**proxy),
        'https': 'https://{ip}:{port}'.format(**proxy)
    }
    try:
        response = requests.get(url, proxies=proxies, timeout=10)
        if response.status_code == 200 and response.json().get('origin'):
            return True
    except:
        pass
    return False

def check_anonymous(proxy):
    url = 'https://www.baidu.com/'
    headers = {
        'User-Agent': 'Mozilla/5.0'
    }
    proxies = {
        'http': 'http://{ip}:{port}'.format(**proxy),
        'https': 'https://{ip}:{port}'.format(**proxy)
    }
    try:
        response = requests.get(url, headers=headers, proxies=proxies, timeout=10)
        if response.status_code == 200 and 'baidu' in response.text:
            return True
    except:
        pass
    return False

class ProxyPool(object):

def __init__(self):
        self.client = redis.Redis(host='localhost', port=6379, db=0, password='')

def add(self, proxy):
        self.client.sadd('proxy_pool', str(proxy))

def remove(self, proxy):
        self.client.srem('proxy_pool', str(proxy))

def random(self):
        return eval(self.client.srandmember('proxy_pool'))

def all(self):
        return [eval(p) for p in self.client.smembers('proxy_pool')]

def add_proxy(proxy):
    proxy_pool = ProxyPool()
    proxy_pool.add(proxy)

def get_random_proxy():
    proxy_pool = ProxyPool()
    proxy = proxy_pool.random()
    while not validate_proxy(proxy):
        proxy_pool.remove(proxy)
        proxy = proxy_pool.random()
    return proxy

def download(url):
    proxy = get_random_proxy()
    proxies = {
        'http': 'http://{ip}:{port}'.format(**proxy),
        'https': 'https://{ip}:{port}'.format(**proxy)
    }
    headers = {
        'User-Agent': 'Mozilla/5.0'
    }
    try:
        response = requests.get(url, headers=headers, proxies=proxies, timeout=10)
        if response.status_code == 200:
            return response.text
    except:
        pass
    return None

if __name__ == '__main__':
    from multiprocessing import Process

spider_process = Process(target=scrapy.cmdline.execute, args=('scrapy crawl xici',))
    spider_process.start()

while True:
        url = input('请输入需要访问的URL:')
        print(download(url))

spider_process.join()

在代码中,我们首先定义了XiciSpider类,用于爬取西刺代理网站上的代理IP数据。然后,我们使用requests库对代理IP进行验证,并使用Redis来保存可用的代理IP。最后,我们定义了get_random_proxy函数,从代理IP池中随机获取一个代理IP,并使用requests库来访问目标网站。

总结

Python开源代理IP池是一个非常有用的工具,它可以帮助我们自动爬取和验证代理IP,并将可用的代理IP保存到一个池中,供我们在爬虫或其他需要访问目标网站时使用,可以有效地避免IP被封杀的问题。

【python】python开源代理ip池的更多相关文章

  1. python爬虫构建代理ip池抓取数据库的示例代码

    爬虫的小伙伴,肯定经常遇到ip被封的情况,而现在网络上的代理ip免费的已经很难找了,那么现在就用python的requests库从爬取代理ip,创建一个ip代理池,以备使用. 本代码包括ip的爬取,检 ...

  2. python多线程建立代理ip池

    之前有写过用单线程建立代理ip池,但是大家很快就会发现,用单线程来一个个测试代理ip实在是太慢了,跑一次要很久才能结束,完全无法忍受.所以这篇文章就是换用多线程来建立ip池,会比用单线程快很多.之所以 ...

  3. Python爬虫代理IP池

    目录[-] 1.问题 2.代理池设计 3.代码模块 4.安装 5.使用 6.最后 在公司做分布式深网爬虫,搭建了一套稳定的代理池服务,为上千个爬虫提供有效的代理,保证各个爬虫拿到的都是对应网站有效的代 ...

  4. Python 爬虫的代理 IP 设置方法汇总

    本文转载自:Python 爬虫的代理 IP 设置方法汇总 https://www.makcyun.top/web_scraping_withpython15.html 需要学习的地方:如何在爬虫中使用 ...

  5. 利用代理IP池(proxy pool)搭建免费ip代理和api

    先看这里!!!---->转载:Python爬虫代理IP池(proxy pool) WIIN10安装中遇到的问题: 一.先安装Microsoft Visual C++ Compiler for P ...

  6. 自建免费的代理ip池

    00x01--- 前言 因为爬虫被禁ip这样的反扒真的很凶,但自从建了一个代理ip池以后,反反扒就可以跟的上节奏.当然你也可以上网上各种代理平台自己付费.这些平台当然很方便提供api调用,还不用自己验 ...

  7. 【python3】如何建立爬虫代理ip池

    一.为什么需要建立爬虫代理ip池 在众多的网站防爬措施中,有一种是根据ip的访问频率进行限制的,在某段时间内,当某个ip的访问量达到一定的阀值时,该ip会被拉黑.在一段时间内被禁止访问. 这种时候,可 ...

  8. 建立爬虫代理IP池

    单线程构建爬虫代理IP池 #!/usr/bin/python3.5 # -*- coding:utf-8 -*- import time import tempfile from lxml impor ...

  9. 做了一个动态代理IP池项目,邀请大家免费测试~

    现在出来创业了,目前公司在深圳. 做了啥呢, 做了一个动态代理 IP 池项目 现在邀请大家免费测试体验! 免费激活码:关注微信公众号:2808proxy (每人每天限领一次噢~) 网站:https:/ ...

  10. springboot实现java代理IP池 Proxy Pool,提供可用率达到95%以上的代理IP

    一.背景 前段时间,写java爬虫来爬网易云音乐的评论.不料,爬了一段时间后ip被封禁了.由此,想到了使用ip代理,但是找了很多的ip代理网站,很少有可以用的代理ip.于是,抱着边学习的心态,自己开发 ...

随机推荐

  1. 某表格常用api

    这是一个神奇的网站,可作为免费的数据存储平台,已白嫖多年 通过调用接口可以方便的实现增删改查.修改www前缀为vip,还能嫖vip服务器 我常常用来写入程序的日志记录,记录/更新一些关键key 不需要 ...

  2. ImageIO的应用

    ImageIO的应用 一.关于IO流 在讲imageio之前,我们先来复习一下IO流的使用. 这里我建立一个Java类,用来实现读取文档中的内容,并且能够识别换行,话不多说,上代码: package ...

  3. 变分自编码器(VAE)公式推导

    论文原文:Auto-Encoding Variational Bayes [OpenReview (ICLR 2014) | arXiv] 本文记录了我在学习 VAE 过程中的一些公式推导和思考.如果 ...

  4. CANopen转ProfiNet网关在大跨径门机起重设备同步纠偏控制应用案例

    大型门机起重设备纠偏控制系统采用CanOpen通讯协议,而PLC使用的是ProfiNet协议,看似不兼容的两种协议如何实现互通?今天我们来看一下这个案例. 通过捷米特JM-COP-PN设置纠偏系统的参 ...

  5. 痞子衡嵌入式:从功耗测试角度了解i.MXRTxxx系列片内SRAM分区电源控制

    大家好,我是痞子衡,是正经搞技术的痞子.今天痞子衡给大家介绍的是从功耗测试角度了解i.MXRTxxx系列片内SRAM分区电源控制. 我们知道配合 MCU 一起工作的存储器包含 ROM(Flash) 和 ...

  6. ISP之图像降分辨率

    1.图像缩放背景 图像的放大.缩小(简称缩放)是图像处理的一种处理方法.所谓图像缩放是指图像分辨率的改变,它在图像显示.传输.图像分析以及动画制作.电影合成.甚至医学图像处理中都有着相当广泛的应用.比 ...

  7. Docker安装及镜像加速器配置

    Centos7安装 卸载旧版本(如果安装过旧版本的话) yum remove docker docker-common docker-selinux docker-engine 安装Docker依赖环 ...

  8. 如何修改电脑的BIOS密码?

      本文介绍设置.修改Windows电脑BIOS模式密码的具体方法.   一般的,电脑默认都是不含有BIOS密码的,可以直接在开机时不输入任何密码进入BIOS模式:而在某些特定的场合,我们可能需要对其 ...

  9. 关于python pycharm中输出的内容不全的解决办法

    import pandas as pd #设置显示的最大列.宽等参数,消除打印不完全中间的省略号 pd.set_option("display.width",1000) #加了这一 ...

  10. jQuery入口函数测试

    <script src="js/jquery-1.12.4.js"></script><script> window.onload = func ...