什么是Requests

Requests是用python语言编写,基于urllib,采用Apache2 licensed开源协议的HTTP库,它比urllib更加方便,可以节约我们大量的工作,完全满足HTTP测试需求。
一句话总结:它是Python实现的简单易用的HTTP库 安装Requests pip install requests

验证没有报错,表示已经成功的安装了

实例引入
 import requests
response = requests.get('https://www.baidu.com')
print(type(response))
print(response.status_code) # 状态码
print(type(response.text))
print(response.text) # 响应的内容
print(response.cookies) # 获取cookie

各种请求方式
 import requests
print(requests.post('http://httpbin.org/post')) #
print(requests.put('http://httpbin.org/put'))
print(requests.delete('http://httpbin.org/delete'))
print(requests.head('http://httpbin.org/get'))
print(requests.options('http://httpbin.org/get'))
Requests库请求具体怎么用的
基本GET请求-----------------------------------------------------------------------------------------------------------
基本写法
 import requests

 response = requests.get('http://httpbin.org/get')
print(response.text) # 请求头啊,请求的IP地址,请求的链接
带参数的GET请求
 import requests

 response = requests.get('http://httpbin.org/get?name=germey&age=22')
print(response.text)
也可以用字典的形式传参 params
 import requests

 data = {
'name':'xiaohu',
'age':''
}
response = requests.get('http://httpbin.org/get',params=data)
print(response.text)
解析json
 import requests

 response = requests.get('http://httpbin.org/get')
print(type(response.text))
print(response.json())
print(type(response.json())) # 它是一个字典的类型
区别用json.loads与直接.json有什么不一样,结果其实是一样的
 import requests
import json response = requests.get('http://httpbin.org/get')
print(type(response.text))
print(response.json())
print(json.loads(response.text)) #区别用json.loads与直接.json有什么不一样,结果其实是一样的
print(type(response.json())) # 它是一个字典的类型
获取二进制数据
 import requests

 response = requests.get('https://github.com/favicon.ico')
print(type(response.text),type(response.content)) # .content是二进制内容
print(response.text)
print(response.content)
获取到图片把它保存
  import requests
response = requests.get('https://github.com/favicon.ico')
with open('favicon','wb') as f:
f.write(response.content)
f.close()
 添加headers 如果不加headers 报错500
import requests headers = {
'User-Agent':'Mozilla/5.0(Macintosh;intel Mac OS X 10_11_4)AppleWebKit/537.36(KHTML,like Gecko)Chrome/52.0.2743.116 Safari/537.36'
}
response = requests.get("https://www.zhihu.com/explore",headers=headers)
print(response.text)
基本POST请求
 import requests

 data = {
'name':'xiaohu',
'age':'',
'job':'IT'
}
response = requests.post('http://httpbin.org/post',data=data)
print(response.text)
 import requests

 data = {
'name':'xiaohu',
'age':'',
'job':'IT'
}
headers = {
'User-Agent':'Mozilla/5.0(Macintosh;intel Mac OS X 10_11_4)AppleWebKit/537.36(KHTML,like Gecko)Chrome/52.0.2743.116 Safari/537.36'
}
response = requests.post('http://httpbin.org/post',data=data,headers=headers)
print(response.json())
响应
response属性
 import requests

 response = requests.get('http://www.jianshu.com')
print(type(response.status_code),response.status_code) # 状态码
print(type(response.headers),response.headers) # 请求头
print(type(response.cookies),response.cookies) #
print(type(response.url),response.url)
print(type(response.history),response.history) # 访问的历史记录
高级操作
文件上传
 import requests

 files = {
'file':open('favicon','rb')
}
response = requests.post('http://httpbin.org/post',files=files)
print(response.text)
获取cookie
 import requests

 response = requests.get('https://www.baidu.com')
print(response.cookies)
print(type(response.cookies))
for key,value in response.cookies.items():
print(key+'='+value)
会话维持
 import requests
requests.get('http://httpbin.org/cookies/set/number/1165872335') # 为网站设置一个cookies
response = requests.get('http://httpbin.org/cookies') # 再用get访问这个cookies
print(response.text) # 为空,因为这里进行了两次get请求,相当于两个浏览器分别设置cookies和访问cookies,相对独立的
改进
 import requests
S = requests.Session() # 声明对象
S.get('http://httpbin.org/cookies/set/number/1165872335') # 实现在同一个浏览器进行设置rookies和访问rookies
response = S.get('http://httpbin.org/cookies') # 再用get访问这个cookies
print(response.text) # 此时不为空
证书验证
 import requests
from requests.packages import urllib3
urllib3.disable_warnings() # 消除警告信息 response = requests.get('https://www.12306.cn',verify=False) # verify=False 不需要验证进入,但是有警告
print(response.status_code)
 import requests

 response = requests.get('https://www.12306.cn',cert=('/path/server.crt','/path/key')) # 指定的证书
print(response.status_code)
代理设置
 import requests
import socks5 proxies = {
"http":"socks5://127.0.0.1:8080",
"https":"socks5://127.0.0.1:8080",
} response = requests.get('https://www.taobao.com',proxies=proxies)
print(response.status_code)
超时设置
 import requests
from requests.exceptions import ReadTimeout try:
response = requests.get('https://www.httpbin.org/get',timeout = 0.2)
print(response.status_code)
except ReadTimeout:
print("timeout")
认证设置
 import requests
from requests.auth import HTTPBasicAuth r = requests.get('http://127.27.34.24:9001',auth=HTTPBasicAuth('user',''))
print(r.status_code) # 第二种方式
import requests r = requests.get('http://127.27.34.24:9001',auth=('user',''))
print(r.status_code)
异常处理
import requests
from requests.exceptions import ReadTimeout,HTTPError,RequestException,ConnectionError
try:
response = requests.get('http://httpbin.org/get',timeout = 0.2)
print(response.status_code)
except ReadTimeout:
print('Timeout')
except HTTPError:
print('Http error')
except ConnectionError:
print('Connection Error')
except RequestException:
print('error')
												

爬虫学习--Requests库详解 Day2的更多相关文章

  1. Python爬虫:requests 库详解,cookie操作与实战

    原文 第三方库 requests是基于urllib编写的.比urllib库强大,非常适合爬虫的编写. 安装: pip install requests 简单的爬百度首页的例子: response.te ...

  2. Python爬虫系列-Requests库详解

    Requests基于urllib,比urllib更加方便,可以节约我们大量的工作,完全满足HTTP测试需求. 实例引入 import requests response = requests.get( ...

  3. Python爬虫系列-Urllib库详解

    Urllib库详解 Python内置的Http请求库: * urllib.request 请求模块 * urllib.error 异常处理模块 * urllib.parse url解析模块 * url ...

  4. Python爬虫学习==>第八章:Requests库详解

    学习目的: request库比urllib库使用更加简洁,且更方便. 正式步骤 Step1:什么是requests requests是用Python语言编写,基于urllib,采用Apache2 Li ...

  5. python WEB接口自动化测试之requests库详解

    由于web接口自动化测试需要用到python的第三方库--requests库,运用requests库可以模拟发送http请求,再结合unittest测试框架,就能完成web接口自动化测试. 所以笔者今 ...

  6. python接口自动化测试之requests库详解

    前言 说到python发送HTTP请求进行接口自动化测试,脑子里第一个闪过的可能就是requests库了,当然python有很多模块可以发送HTTP请求,包括原生的模块http.client,urll ...

  7. requests库详解 --Python3

    本文介绍了requests库的基本使用,希望对大家有所帮助. requests库官方文档:https://2.python-requests.org/en/master/ 一.请求: 1.GET请求 ...

  8. python的requests库详解

    快速上手 迫不及待了吗?本页内容为如何入门 Requests 提供了很好的指引.其假设你已经安装了 Requests.如果还没有,去安装一节看看吧. 首先,确认一下: Requests 已安装 Req ...

  9. 爬虫学习--http请求详解

    上篇博客里面写了,爬虫就是发http请求(浏览器里面打开发送的都是http请求),然后获取到response,咱们再从response里面找到想要的数据,存储到本地. 咱们本章就来说一下什么是http ...

随机推荐

  1. resmgr:cpu quantum等待事件 触发的bug问题

    1>resmgr:cpu quantum等待事件 触发的bug问题  (处理心得) 1.客户反馈数据库服务器在某个时间段总是特别繁忙,获取awr报告分析繁忙原因

  2. Java 语言特点

    引入<Java核心技术:Ⅰ> 1. 简单性 Java 语法是 C++ 语法的一个“ 纯净” 版本.这里没有头文件. 指针运算(甚至指 针语法).结构. 联合.操作符重载. 虚基类等.如果你 ...

  3. python selenium之CSS定位

    ccs的优点:css相对xpath语法比xpath简洁,定位速度比xpath快 css的缺点:css不支持用逻辑运算符来定位,而xpath支持.css定位语法形式多样,相对xpath比较难记. css ...

  4. 配置Ant执行Jmeter脚本

    1.将 jmeter下extras目录中ant-jmeter-1.1.1.jar包拷贝至ant安装目录下的lib目录中,否则会报错ant-jmeter-1.1.1不存在 2.在jmeter根目录下创建 ...

  5. 【Java基础】谈谈集合.CopyOnWriteArrayList

    目录 实现原理 遍历时不用加锁的原因 CopyOnWriteArrayLis的缺点 使用场景 总结 参考 本篇博客介绍CopyOnWriteArrayList类,读完本博客你将会了解: 什么是COW机 ...

  6. opencv::opencv_traincascade.exe

    opencv_traincascade 是一个新程序,使用OpenCV .x API 以C++ 编写. 这二者主要的区别是 opencv_traincascade 支持 Haar 和 LBP 两种特征 ...

  7. windows下cmd组合命令和管道命令

    组合命令:&& 管道命令:|

  8. Netty源码分析之ChannelPipeline(一)—ChannelPipeline的构造与初始化

    Netty中ChannelPipeline实际上类似与一条数据管道,负责传递Channel中读取的消息,它本质上是基于责任链模式的设计与实现,无论是IO事件的拦截器,还是用户自定义的ChannelHa ...

  9. java读取存在src目录下和存在同级目录下的配置文件

    如果我有个文件存在src下一级的地方和存在src同级的目录应该怎么用相对路径去获取如图: 一.如果存在src同级的地方应该是InputStream in = new BufferedInputStre ...

  10. 你不知道的DIV+CSS的命名规则

    搜索引擎优化(seo)有很多工作要做,其中对代码的优化是一个很关键的步骤.为了更加符合SEO的规范,下面是目前比较好的CSS+DIV的命名规则 1DIV CLASS或者ID 页头:header 登录条 ...