urllib库在很多时候都比较繁琐,比如处理Cookies。因此,我们选择学习另一个更为简单易用的HTTP库:Requests。

requests官方文档

1. 什么是Requests

Requests是用python编写,基于urllib,采用Apache2 Licensed开源协议的HTTP库。它比urllib更加简单易用。

2. 使用Requests库

2.1 构建请求

使用requests可以很方便的构建请求:

r = requests.get('https://api.github.com/events')# 构建GET请求r = requests.post('http://httpbin.org/post')     # 构建POST请求r = requests.put('http://httpbin.org/put')    #构建PUT请求

2.1.1 GET请求

import requests

response = requests.get('http://httpbin.org/get')
print(response.text)

2.1.2 带参数的GET请求

使用GET进行请求数据时,其参数全部位于url中。

要使用requests构建一个带参数的GET请求,可以选择将参数和url拼接形成新的url进行请求,或者是将需要传递的参数传入requests.get()方法的params

# 方法一:将拼接后的url传入requests.get()
response = requests.get('http://httpbin.org/get?name=gemey&age=22')

# 方法二:将参数传入requests.get()的params
data = {
    'name': 'gemey',
    'age': 22
}
response = requests.get('http://httpbin.org/get', params=data) 

2.1.3 POST请求

POST请求和GET请求最显著的区别在于,其请求的参数需要与url分离开来。

在requests中,构建POST请求的方法和构建带参数的GET请求方法类似,只需要将需要传递的参数参数requests.post()方法的data

import requests

data ='}

response = requests.post('http://httpbin.org/post', data=data)
print(response.text)

2.1.4 解析json

在python中,要解析json数据,经常使用json.loads()方法。同时,requests也提供了requests.json()方法用于解析数据。

这二者效果一致

import requests
import json

response = requests.get('http://httpbin.org/get')

print(type(response.text))
print(response.json())
# 二者效果一致
print(json.loads(response.text))

2.1.5 获取二进制数据

# 以github一个图标为例
import requests

response = requests.get('https://github.com/favicon.ico')
# requests.content 即为获取的二进制数据
print(type(response.content))
print(response.content)

2.1.6 添加headers信息

为get()的headers参数传入相应的headers信息即可

import requests

# 需要传入的headers信息
header = {
    'User-Agent': 'Mozilla/5.0 (Macintosh; U; Intel Mac OS X 10_6_8; en-us) AppleWebKit/534.50 (KHTML, like Gecko) Version/5.1 Safari/534.50'
}

response = requests.get('http://zhihu.com/explore', headers=header)
print(response.text)

2.2 Response

2.2.1 response属性

print(response.status_code) # 返回状态码
print(response.headers)     # 返回headers信息
print(response.cookies)     # 返回cookies信息
print(response.url)         # 返回访问的url
print(response.history)     # 访问历史记录

2.2.2 response状态码判别

内置状态码判别:requests.codes包含了一系列访问正常的状态码,可用于判别是否连接成功:

import requests

response = requests.get('http://www.jianshu.com')

# 使用内置状态码判定
exit() if not response.status_code==requests.codes.ok else print('Request Successfully')
# 直接判定
exit() if not response.status_code==200 else print('Request Successfully')

2.3 高级操作

2.3.1 文件上传

文件上传,使用POST请求。

import requests

files = {'file': open('favicon.ico', 'rb')}
response = requests.post('http://httpbin.org/post', files=files)
print(response.text)

2.3.2 获取cookie

response.cookies获取到的是键值对,可以把其中每一条记录都提取出来。

import requests

response = requests.get('https://baidu.com')
print(respnse.cookies)
for key, value in response.cookies.items():
    print(key, value)

2.3.3 会话维持

cookies的作用就是给网站用于维持会话,常用于模拟登陆

使用requests中的session()对象,使得前后两次访问都使用统一浏览器,即维持会话,cookies保持一致。

s = requests.Session()
s.get('http://httpbin.org/cookies/set/number/123456789')
response = s.get('http://httpbin.org/cookies')
print(response.text) 

2.3.4 证书验证

在打开使用https协议的页面时,浏览器首先需要对该网页的证书进行验证。如果验证不通过,程序就会报错。比如曾经的12306网站。

因此,就需要设置verify=False关闭证书验证。

response = requests.get('https://www.12306.cn', verify=False)
print(response.status_code)

同时,我们也可以选择使用本地的证书用于验证网页。只需要在cert里传入本地证书即可。

response = requests.get('https://www.12306.cn', cert=('/path/server.crt'))
print(response.status_code) 

2.3.5 代理设置

requests使用代理设置,只需要在请求时传入proxies参数

proxies = {
    'http': 'http://123.0.0.1:23',
    'https': 'https://123.0.0.1:123'
}

response = requests.get('https://www.taobao.com', proxies=proxies)
print(response.status_code)

2.3.6 超时设置

为访问网页设置超时,如果访问网页超过规定的时间,就抛出异常。目的是防止在请求某个网页时时间过长导致程序没有继续运行。

在请求时设置timeout参数即可设置请求网页时耗费的最大时长。如果超过这个时间还没有请求完,程序即报错。

使用requests的exceptions模块进行处理异常报错。

import requests
from requests.exceptions import ReadTimeout

try:
    response = requests.get('http://httpbin.org/get', timeout=0.5)
    print(response.status_code)
except ReadTimeout:
    print('Timeout')

2.3.7 认证设置

在访问某些网站时,需要进行登陆验证。可以在请求时设置auth,传入认证的账户密码

import requests
from requests.exceptions import ReadTimeout

try:
    response = requests.get('http://httpbin.org/get', timeout=0.5)
    print(response.status_code)
except ReadTimeout:
    print('Timeout')

2.3.8 异常处理

使用requests的exceptions模块

import requests
from requests.exceptions import ReadTimeout, HTTPError, RequestException

try:
    response = requests.get('http://httpbin.org/get', timeout=0.5)
    print(response.status_code)
except ReadTimeout:
    print('timeout')
except HTTPError:
    print('http error')
except RequestException:
    print('error')

2.4 保存抓取到的图片

如果我们从网页中爬取图片,那么拿到每一张图片对应的url后,我们需要把图片保存到本地。

urllib库中有一个urlretrieve()方法可以将图片保存到本地,但是requests库中并没有这个功能,我们需要使用文件写入的方法将图片保存到本地

# 以百度首页的logo为例# import requests

# 找到logo对应的url
url = 'https://www.baidu.com/img/bd_logo1.png'
r = requests.get(url)

# 写入本地磁盘# 'wb'是指以二进制格式打开一个文件只用于写入。如果该文件已存在则将其覆盖。如果该文件不存在,创建新文件。
with open('/path/baidu.png', 'wb') as f:  f.write(r.content)

  with...as...的方法可以在写入文件完成后自动关闭文件,不需要我们手动将文件关闭,因而可以避免因忘记关闭文件而浪费资源和干扰已经写入的文件。

  关于使用open()写入文件的具体方式可以参考:python打开与关闭文档

或者,使用urllib的urlretrieve()方法

import urllib

url = 'https://www.baidu.com/img/bd_logo1.png'
urllib.request.urlretrieve(url, '/path/baidu.png')

  

python爬虫入门三:requests库的更多相关文章

  1. PYTHON 爬虫笔记三:Requests库的基本使用

    知识点一:Requests的详解及其基本使用方法 什么是requests库 Requests库是用Python编写的,基于urllib,采用Apache2 Licensed开源协议的HTTP库,相比u ...

  2. 3.Python爬虫入门三之Urllib和Urllib2库的基本使用

    1.分分钟扒一个网页下来 怎样扒网页呢?其实就是根据URL来获取它的网页信息,虽然我们在浏览器中看到的是一幅幅优美的画面,但是其实是由浏览器解释才呈现出来的,实质它是一段HTML代码,加 JS.CSS ...

  3. 转 Python爬虫入门三之Urllib库的基本使用

    静觅 » Python爬虫入门三之Urllib库的基本使用 1.分分钟扒一个网页下来 怎样扒网页呢?其实就是根据URL来获取它的网页信息,虽然我们在浏览器中看到的是一幅幅优美的画面,但是其实是由浏览器 ...

  4. Python爬虫入门之Urllib库的基本使用

    那么接下来,小伙伴们就一起和我真正迈向我们的爬虫之路吧. 1.分分钟扒一个网页下来 怎样扒网页呢?其实就是根据URL来获取它的网页信息,虽然我们在浏览器中看到的是一幅幅优美的画面,但是其实是由浏览器解 ...

  5. Python爬虫入门之Urllib库的高级用法

    1.设置Headers 有些网站不会同意程序直接用上面的方式进行访问,如果识别有问题,那么站点根本不会响应,所以为了完全模拟浏览器的工作,我们需要设置一些Headers 的属性. 首先,打开我们的浏览 ...

  6. Python爬虫入门——使用requests爬取python岗位招聘数据

    爬虫目的 使用requests库和BeautifulSoup4库来爬取拉勾网Python相关岗位数据 爬虫工具 使用Requests库发送http请求,然后用BeautifulSoup库解析HTML文 ...

  7. Python 爬虫入门(requests)

    相信最开始接触Python爬虫学习的同学最初大多使用的是urllib,urllib2.在那之后接触到了第三方库requests,requests完全能满足各种http功能,真的是好用爆了 :D 他们是 ...

  8. Python爬虫的开始——requests库建立请求

    接下来我将会用一段时间来更新python爬虫 网络爬虫大体可以分为三个步骤. 首先建立请求,爬取所需元素: 其次解析爬取信息,剔除无效数据: 最后将爬取信息进行保存: 今天就先来讲讲第一步,请求库re ...

  9. 芝麻HTTP: Python爬虫利器之Requests库的用法

    前言 之前我们用了 urllib 库,这个作为入门的工具还是不错的,对了解一些爬虫的基本理念,掌握爬虫爬取的流程有所帮助.入门之后,我们就需要学习一些更加高级的内容和工具来方便我们的爬取.那么这一节来 ...

随机推荐

  1. Python及bs4、lxml、numpy模块包的安装

    http://blog.csdn.net/tiantiancsdn/article/details/51046490(转载) Python及bs4.lxml.numpy模块包的安装 Python 的安 ...

  2. [題解]luogu_P1613跑路(最短路/倍增)

    首先要知道不能跑最短路,因為只有整2^k才能一秒到達,和倍增有關 所以我們想知道任意兩點間能否存在一條2^k長度的路徑,數據很小,可以考慮floyd 把倍增和floyd結合起來考慮發現如果i到k,k到 ...

  3. 096 Unique Binary Search Trees 不同的二叉查找树

    给出 n,问由 1...n 为节点组成的不同的二叉查找树有多少种?例如,给出 n = 3,则有 5 种不同形态的二叉查找树:   1         3     3      2      1    ...

  4. Ajax返回数据格式

      Ajax中返回数据的格式 Ajax中常见的返回数据的格式有三种:分别为文本,XML和JSON 返回的文本格式我们在上一堂课Ajax基础介绍中已经介绍过了 Ajax.php Form.html:通过 ...

  5. jvm内存溢出的三种情况以及解决办法

    1       前言相信有一定java开发经验的人或多或少都会遇到OutOfMemoryError的问题,这个问题曾困扰了我很长时间,随着解决各类问题经验的积累以及对问题根源的探索,终于有了一个比较深 ...

  6. 在switch中的case语句中声明变量会被提前

    原文链接:http://my.oschina.net/u/2000201/blog/514384 本人今天在编写工具类时,无意之间发现,在Java的Swith语句的case语句中声明局部变量时出现了一 ...

  7. uvm_base——打好你的基础

    uvm_base 是个很有意思的文件,这是UVM很巧妙的设计,将所有在base中包含的文件都包含在uvm_base.svh, 这样很方便管理各个文件直接的关系,而且还可以看出一些我之前没看过的东西,比 ...

  8. iOS 多尺寸屏幕适配

    Point Point可以理解为iOS程序员眼中的大小单位.它是iOS操作系统中的抽象的概念. Rendered Pixels可以理解为UI设计师眼中的大小单位. Physical Pixels 设备 ...

  9. MySQL备份和还原数据库及慢查询日志使用

  10. VC操作WORD文档总结

    一.写在开头 最近研究word文档的解析技术,我本身是VC的忠实用户,看到C#里面操作WORD这么舒服,同时也看到单位有一些需求,就想尝试一下,结果没想到里面的技术点真不少,同时网络上的共享资料很多, ...