python + seleinum +phantomjs 设置headers和proxy代理
python + seleinum +phantomjs 设置headers和proxy代理
最近因为工作需要使用selenium+phantomjs无头浏览器,其中遇到了一些坑,记录一下,尤其是关于phantomjs设置代理的问题。
基本使用
首先在python中导入使用的包,其中webdriver是要创建无头浏览器对象的模块,DesiredCapabilites这个类是浏览器对象的一些选项设置。
- from selenium import webdriver
- from selenium.webdriver.common.desired_capabilities import DesiredCapabilities
- # 初始化浏览器对象
- desired_cap = DesiredCapabilities.PHANTOMJS.copy()
- driver = webdriver.PhantomJS(desired_capabilities=desired_cap)
修改请求头
在使用爬虫的过程中我们需要修改请求投中的user-agent防止被反爬,修改过程如下
- desired_cap = DesiredCapabilities.PHANTOMJS.copy()
- # 修改请求头中的UA
- desired_cap['phantomjs.page.settings.userAgent'] = 'xxxxxx'
- # 设置其他请求投信息,其中key为要修改的请求投键名
- desired_cap['phantomjs.page.customHeaders.{}'.format(key)] = 'xxxx'
- driver = webdriver.PhantomJS(desired_capabilities=desired_cap)
设置代理
在使用爬虫过程中,经常需要使用代理ip,网上关于这方面资料较少,我也是搜集了好久,记录一下
ip代理有静态ip代理和动态ip代理,先说静态ip,静态ip就是134.119.184.92:1080这样的代理,不需要使用验证信息,使用方法如下:
- # 配置代理信息
- proxy = [
- '--proxy=%s' % "218.60.8.83:3129", # 设置的代理ip
- '--proxy-type=http', # 代理类型
- '--ignore-ssl-errors=true', # 忽略https错误
- ]
- # 在初始化浏览器对象的时候可以接收一个service_args的参数,使用这个参数设置代理
- drive = webdriver.PhantomJS(service_args=proxy)
- # 设置页面加载和js加载超时时间,超时立即报错,如下设置超时时间为10秒
- drive.set_page_load_timeout(10)
- drive.set_script_timeout(10)
- # 这样代理就设置成功了,可以向百度发送请求验证ip是否可用
- drive.get('http://www.baidu.com')
以上是静态代理设置方法,但是我们时候使用的是动态代理,设置方法有所变化,需要在参数里加上验证使用的用户名和密码,代码如下:
- # 代理设置如下:
- proxy = [
- '--proxy=%s:%s' % (proxyHost, proxyPort), # 代理服务器的域名
- '--proxy-type=http', # 代理类型
- '--proxy-auth=%s:%s' % (proxyUser, proxyPass), # 代理验证所需的用户名和密码
- '--ignore-ssl-errors=true', # 忽略https错误
- ]
- # 在初始化浏览器对象的时候可以接收一个service_args的参数,使用这个参数设置代理
- drive = webdriver.PhantomJS(service_args=proxy)
- # 设置页面加载和js加载超时时间,超时立即报错,如下设置超时时间为10秒
- drive.set_page_load_timeout(10)
- drive.set_script_timeout(10)
- # 这样代理就设置成功了,可以向百度发送请求验证ip是否可用
- drive.get('http://www.baidu.com')
以上就是使用selenium + phantomjs无头浏览器设置headers和代理的方法。
python + seleinum +phantomjs 设置headers和proxy代理的更多相关文章
- Python爬虫连载10-Requests模块、Proxy代理
一.Request模块 1.HTTP for Humans,更简洁更友好 2.继承了urllib所有的特征 3.底层使用的是urllib3 4.开源地址:https://github.com/req ...
- python爬虫scrapy之downloader_middleware设置proxy代理
一.背景: 小编在爬虫的时候肯定会遇到被封杀的情况,昨天爬了一个网站,刚开始是可以了,在settings的设置DEFAULT_REQUEST_HEADERS伪装自己是chrome浏览器,刚开始是可以的 ...
- selenium phantomjs 设置代理ip方法
最近遇到phantomjs动态更换ip的功能,在知乎上看到一篇不错的文章,顺手记下来以备后用 phantomjs selenium 如何动态修改代理? 可以这样做(Python代码): # 不使用代理 ...
- Python爬虫设置Headers
Python设置Headers import urllib import urllib2 url = 'http://www.server.com/login' user_agent = 'Mozil ...
- C# 使用 Proxy 代理请求资源
C# 使用 Proxy 请求资源,基于 HttpWebRequest 类 前言 这是上周在开发 C# 中使用 Proxy 代理时开发的一些思考和实践.主要需求是这样的,用户可以配置每次请求是否需要代理 ...
- ES6新特性:Proxy代理器
ES6新特性:Proxy: 要使用的话, 直接在浏览器中执行即可, node和babel目前还没有Proxy的polyfill;,要使用的话,直接在浏览器中运行就好了, 浏览器的兼容性为:chrome ...
- Proxy 代理模式
简介 代理模式是用一个简单的对象来代替一个复杂的或者创建耗时的对象. java.lang.reflect.Proxy RMI 代理模式是对象的结构模式.代理模式给某一个对象提供一个代理对象,并由代理对 ...
- 豌豆夹Redis解决方式Codis源代码剖析:Proxy代理
豌豆夹Redis解决方式Codis源代码剖析:Proxy代理 1.预备知识 1.1 Codis Codis就不详细说了,摘抄一下GitHub上的一些项目描写叙述: Codis is a proxy b ...
- 豌豆夹Redis解决方案Codis源码剖析:Proxy代理
豌豆夹Redis解决方案Codis源码剖析:Proxy代理 1.预备知识 1.1 Codis Codis就不详细说了,摘抄一下GitHub上的一些项目描述: Codis is a proxy base ...
随机推荐
- 纯CSS3轮播图
<!DOCTYPE html><html lang="en"><head> <meta charset="UTF-8" ...
- 学习promise
总概括 promise是js异步编程的一种解决方案 我对promise的认识(通俗):给一个承诺promise,如果未来发生的事情(异步操作)是符合满足相应条件,则接受resolve,否则失败reje ...
- Confluence 6 针对大数据量备份
XML 站点备份的方式只针对 Confluence 包含有几千页面的情况,XML 备份所需要的时间随着数据量的变化而增加.另外的一个问题是 XML 站点的备份将会包含上 G 的附件数据,随着数据量的增 ...
- Confluence 6 后台中为站点添加应用导航
Confluence 6 后台中为站点添加应用导航的连界面和方法. https://www.cwiki.us/display/CONFLUENCEWIKI/Configuring+the+Site+H ...
- dell g3:安装ubuntu16.04 + CUDA8.0
一.Ubuntu 1.选择UEFI模式启动,参考https://blog.csdn.net/qq_34570910/article/details/78084659 2.卡在logo界面进不去,在qu ...
- 基于多进程的Tcp套接字服务器
服务端 import socketfrom multiprocessing import Process def task(c): print('顾客吃点啥') while True: data = ...
- Client-Side Attacks
1.之前看到中间人攻击方式,要使用ssl服务构架一个劫持会话,使得攻击者和被攻击者客户端连接.ssl 服务(secure Socket Layer安全套接) ,以及后续出现的TSL(Transport ...
- python 垃圾回收
# 垃圾回收 # 小整数对象池 # a = 100# python对小整数的定义是[-5,257],这些证书对象是提前创建好的,不会被垃圾回收,再一个python的程序中,所有位于这个范围内的正式使用 ...
- C#正则Groups高级使用方法
正则表达式号称开发者得瑞士军刀,使用好正则表达式尤其重要. 拆分多个正则: public static string[] SplitByManyRegex(string text, string[] ...
- Nginx中配置undertow进行两个项目的动静分离配置
#user nobody; worker_processes ; pid /var/run/nginx.pid; events { worker_connections ; } http { incl ...