爬虫-urllib3模块的使用
urllib3是一个功能强大,对SAP健全的 HTTP客户端,许多Python生态系统已经使用了urllib3。
一、安装
sudo pips install urllib3
二、创建PoolManager对象
通过urllib3访问网页,首先需要构造一个PoolManager实例对象用于处理与线程池的连接以及线程安全的所有细节,然后通过request()方法来发送请求
import urllib3 #创建PoolManager对象,用于处理与线程池的连接以及线程安全的所有细节
http = urllib3.PoolManager() #对需要爬取的网页发送请求
resp = http.request(method,url,...)method和url两个参数必选,并且method需要大写
三、基本GET请求(headers参数和fields参数)
最基本的GET请求
import urllib3 #创建PoolManager对象,用于处理与线程池的连接以及线程安全的所有细节
http = urllib3.PoolManager() #对需要爬取的网页发送请求
resp = http.request('GET','https://www.baidu.com/') print(resp.data.decode())#响应数据
print(resp.headers)#响应头信息
print(resp.status)#状态码
resp.release_conn()#释放这个http连接添加headers和查询参数
可以传入headers
参数(dict类型)来增加请求头中的headers信息。可以利用fields参数传递查询参数(dict类型),并且url后面的'?‘一定不能带上
import urllib3 http = urllib3.PoolManager() kw = {"wd":"长城"}
headers = {"User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/54.0.2840.99 Safari/537.36"}
resp = proxy.request('GET','https://www.baidu.com/s',fields=kw,headers = headers)
print(resp.data.decode())
四、基本POST请求(fields参数)
最基本的POST请求需要传入fields参数(dict类型),urllib3会自动将其转换成表单数据类型
import urllib3 http = urllib3.PoolManager() #需要提交的数据
data = {'word':'hello'}
headers = {"User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/54.0.2840.99 Safari/537.36"}
response = http.request('POST','http://httpbin.org/post',fields = data,headers = headers)
print(response.data.decode())url中携带查询参数
- 需要先通过urlencode()编码,然后附加在url后面,这和GET方式有所不同(示例略)
传递json数据(body参数)
- 利用body参数进行传递,但是数据需要先序列化成json字符串,然后headers中需要设置'Content-Type':'application/json'
import urllib3
import json http = urllib3.PoolManager()
url = 'https://openapi.vmall.com/mcp/offlineshop/getShopList'
data = {
"portal":2,"lang":"zh-CN","country":"CN","brand":1,"province":"山西","city":"太原","pageNo":1,"pageSize":20
} # 将字典类型数据序列化成json字符串
json_data = json.dumps(data) #headers中设置Conten-Type为application/json
headers = {
'User-Agent': 'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_15_4) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/80.0.3987.163 Safari/537.36',
'Content-Type':'application/json'
}
resp = http.request('POST',url,body = json_data,headers = headers)
print(resp.data.decode())注意:body参数和fields参数不能同时使用
五、文件上传
普通文件上传
- 使用multipart/form-data编码方式上传文件,可以使用和传入Form data数据一样的方法进行,并将文件定义为一个二元元组(文件名,数据)或三元元组(文件名,数据,MIME类型),文件名的定义虽然不是严格要求的,但是推荐使用,以使得表现得更像浏览器
import urllib3 http = urllib3.PoolManager() #打开文件test.txt
with open('test.txt','r') as f:
file_data = f.read() headers = {"User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/54.0.2840.99 Safari/537.36"} #三元元组的方式传入
resp = http.request('POST','http://httpbin.org/post',fields={'filefield':('test.txt',file_data,'text/plain')},headers=headers)
#二元元组的方式传入
#resp = http.request('POST','http://httpbin.org/post',fields={'filefield':('test.txt',file_data)},headers=headers)
print(resp.data.decode('unicode_escape')) 二进制文件上传
- 原始二进制数据,只要将其定义为body参数即可。同时,建议对header的Content-Type参数进行设置
import urllib3 http = urllib3.PoolManager() with open('test.jpg','rb') as f:
binary_data = f.read()
headers = {"User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/54.0.2840.99 Safari/537.36",'Content-Type':'image/jpeg'}
resp = http.request('POST','http://httpbin.org/post',body = binary_data,headers = headers)
print(resp.data.decode())
- 原始二进制数据,只要将其定义为body参数即可。同时,建议对header的Content-Type参数进行设置
六、超时设置
使用timeout,可以控制请求的总超时时间(连接超时和读取超时时间总和),timeout参数为一个浮点数:
resp = http.request('GET','http://httpbin.org/delay/3',timeout = 4.0)
也可以分别设置总超时、连接超时和读取超时时间,这时候需要使用Timeout()实例,里面有3个关键字参数total,connect和read:
#设置总超时时间为3.0秒,连接超时不超过1.5秒,读取超时不超过2.0秒
resp = http.request('GET','http://httpbin.org/delay/3',timeout = urllib3.Timeout(total=3.0,connect=1.5,read=2.0))如果想让所有的request都遵循一个timeout,可以将timeout参数定义在PoolManager中,当在具体的request中再次定义timeout时,会覆盖PoolManager层面上的timeout。
http = urllib3.PoolManager(timeout = urllib3.Timeout(total=3.0,connect=1.5,read=2.0)) #http = urllib3.PoolManager(timeout = 4.0)
七、重试(retries参数)以及重定向(redirect参数)设置
urllib3默认进行3次请求重试,3次重定向
通过retries来自定义请求重试次数
#设置请求重试次数10次
resp = http.request('GET','http://httpbin.org/ip',retries = 10)将参数retries设为False,请求重试和重定向会同时关闭
#同时关闭请求重试和重定向
resp = http.request('GET','http://httpbin.org/redirect/1',retries = False)将参数redirect设为False,仅关闭重定向,保持请求重试
#仅关闭重定向
resp = http.request('GET','http://httpbin.org/redirect/1',redirect = False)通过Retry()实例可以精细控制重试和重定向次数,该实例默认总重试次数为10次,比如我们设置3次重试,2次重定向
resp = http.request('GET','http://httpbin.org/redirect/3',retries = urllib3.Retry(3,redirect = 2))
如果想让所有的request都遵循一个请求重试和重定向策略,可以在PoolManager中定义retries参数,当在具体的request中再次定义retries时,会覆盖 PoolManager层面上的retries。
http = urllib3.PoolManager(retries = urllib3.Retry(3,redirect=2))
#http = urllib3.PoolManager(retries = False)
八、ProxyManager(代理IP)
- 如果你需要使用代理来访问某个网站的话, 那么你可以使用 ProxyManager 对象来进行设置
- ProxyManager和PoolManager的方法基本完全相同,这里举个简单的小例子
import urllib3 #创建ProxyManager对象
proxy_http = urllib3.ProxyManager('https://175.42.122.96:9999') headers = {"User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/54.0.2840.99 Safari/537.36"} #利用代理对需要爬取的网页发送请求
resp = proxy_http.request('GET','https://www.baidu.com/',headers=headers) print(resp.data.decode())#响应数据
print(resp.headers)#响应头信息
print(resp.status)#状态码
resp.release_conn()#释放这个http连接
九、SSL证书验证
urllib3默认不验证HTTPS请求,如果想开启验证,最可靠的方法是使用提供Mozilla根证书包的certifi包
sudo pip3 install certifi
获得证书后,可以在PoolManager中定义cert_reqs参数和ca_certs参数,来自动处理证书验证
import urllib3
import certici #开启ssl证书自动验证
http = urllib3.PoolManager(cert_reqs='CERT_REQUIRED',ca_certs=certifi.where()) headers = {"User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/54.0.2840.99 Safari/537.36"}
resp = http.request('GET','https://www.baidu.com/',headers=headers) print(resp.data.decode())如果需要,可以使用OS提供的证书。只需指定证书包的完整路径作为ca_certs参数而不是 certifi.where()。例如,大多数Linux系统都存储证书/etc/ssl/certs/ca-certificates.crt。
import urllib3
import certifi http = urllib3.PoolManager(cert_reqs='CERT_REQUIRED',ca_certs='/etc/ssl/certs/ca-certificates.crt')
爬虫-urllib3模块的使用的更多相关文章
- 洗礼灵魂,修炼python(58)--爬虫篇—【转载】urllib3模块
urllib3 1.简介 urllib3相比urllib,urlib2,又有些一些新的功能,可以实现很多东西,而这个模块有点特殊的是,并且还可以同时存在于python2和python3,但说实话,用的 ...
- python爬虫 urllib模块url编码处理
案例:爬取使用搜狗根据指定词条搜索到的页面数据(例如爬取词条为‘周杰伦'的页面数据) import urllib.request # 1.指定url url = 'https://www.sogou. ...
- python 爬虫 urllib模块 目录
python 爬虫 urllib模块介绍 python 爬虫 urllib模块 url编码处理 python 爬虫 urllib模块 反爬虫机制UA python 爬虫 urllib模块 发起post ...
- 爬虫 requests模块的其他用法 抽屉网线程池回调爬取+保存实例,gihub登陆实例
requests模块的其他用法 #通常我们在发送请求时都需要带上请求头,请求头是将自身伪装成浏览器的关键,常见的有用的请求头如下 Host Referer #大型网站通常都会根据该参数判断请求的来源 ...
- 爬虫requests模块 1
让我们从一些简单的示例开始吧. 发送请求¶ 使用 Requests 发送网络请求非常简单. 一开始要导入 Requests 模块: >>> import requests 然后,尝试 ...
- python爬虫-urllib模块
urllib 模块是一个高级的 web 交流库,其核心功能就是模仿web浏览器等客户端,去请求相应的资源,并返回一个类文件对象.urllib 支持各种 web 协议,例如:HTTP.FTP.Gophe ...
- 爬虫 requests 模块
requests 模块 介绍 使用requests可以模拟浏览器的请求, 比起之前用到的urllib,requests模块的api更加便捷(本质就是封装了urllib3) ps: requests库发 ...
- 爬虫-----selenium模块自动爬取网页资源
selenium介绍与使用 1 selenium介绍 什么是selenium?selenium是Python的一个第三方库,对外提供的接口可以操作浏览器,然后让浏览器完成自动化的操作. sel ...
- 爬虫----requests模块
一.介绍 #介绍:使用requests可以模拟浏览器的请求,比起之前用到的urllib,requests模块的api更加便捷(本质就是封装了urllib3) #注意:requests库发送请求将网页内 ...
随机推荐
- 题解-CF101D Castle
题面 CF101D Castle 给一棵 \(n\) 个节点的带权树,求一种遍历方案,从 \(1\) 出发,每条边走两次,走过所有点,第一次经过每个节点的平均时间最小.输出这个平均时间. 数据范围:\ ...
- 算法(图论)——最小生成树及其题目应用(prim和Kruskal算法实现)
题目 n个村庄间架设通信线路,每个村庄间的距离不同,如何架设最节省开销? Kruskal算法 特点 适用于稀疏图,时间复杂度 是nlogn的. 核心思想 从小到大选取不会产生环的边. 代码实现 代码中 ...
- 算法——和为K的连续子数组
给定一个整数数组和一个整数 k,你需要找到该数组中和为 k 的连续的子数组的个数. 输入:nums = [1,1,1], k = 2 输出: 2 , [1,1] 与 [1,1] 为两种不同的情况. 链 ...
- CentOS配置Nginx官方的Yum源
由于yum源中没有我们想要的nginx,那么我们就需要创建一个"/etc/yum.repos.d/nginx.repo"的文件,其实就是新增一个yum源. [root@niaoyu ...
- logstash导入DNS解析数据到es中,中间有filebeat
这个过程中,主要用logstash处理数据的时候不好处理. 在logstash-sample.conf这个配置文件中的配置,我用这个监控filebeat的5044端口 # Sample Logstas ...
- 小白都看得懂的Javadoc上手教程
Javadoc是什么 官方回答: Javadoc is a tool for generating API documentation in HTML format from doc comments ...
- ORACLE启用非默认监听端口
1.修改listener.ora文件 LISTENER_TEST = (DESCRIPTION = (ADDRESS = (PROTOCOL = TCP ...
- 容器服务 TKE 存储插件与云硬盘 CBS 最佳实践应用
引言 随着自研上云的深入,越来越多的有状态服务对于在 TKE 集群中使用云上存储能力的需求也越来越强烈. 目前腾讯云容器服务 TKE(Tencent Kubernetes Engine已支持在 TKE ...
- Windows下anaconda换源和pip换源
换源解决下载安装速度慢的问题. 1. anaconda换源 打开cmd命令行,输入 conda config --set showchannelurls yes 会在C:\Users\xx文件夹下生成 ...
- Abp vNext异常处理的缺陷/改造方案
吐槽Abp Vnext异常处理! 哎呀,是一个喷子 目前项目使用Abp VNext开发,免不了要全局处理异常.提示服务器异常信息. 1. Abp官方异常处理 Abp项目默认会启动内置的异常处理,默认不 ...