文档:从 pythoneer 到 pythonista 的100个模块
  链接:http://note.youdao.com/noteshare?id=2b95bb3651c21af80ca1936f8ecb1e0f&sub=635CA99241664308947C4F3BC1B5DDBF

  文档:递归详解.note
  链接:http://note.youdao.com/noteshare?id=5277776089054d9b730dc6b8d2114acd&sub=D2DC1AEE6417467A80D170CA55074A96

一、使用步骤 

1 # 导包
import requests
# 确定基础url
base_url = 'https://www.baidu.com'
# 发送请求,获取响应
response = requests.get(base_url)
# 处理响应内容

二、requests.get()---get请求方法参数详解

  1、参数   

 requests.get(
    url=请求url,
    headers =请求头字典,
    params = 请求参数字典。
    timeout = 超时时长,
    )——>response对象

  2、response对象的属性:

     服务器响应包含:状态行(协议,状态码)、响应头,空行,响应正文

    (1)响应正文:

        字符串格式:response.text
        bytes类型:response.content
    (2)状态码:response.status_code
    (3)响应头:response.headers(字典)
            response.headers['cookie']
    (4)响应正文的编码:response.encoding
                response.text获取到的字符串类型的响应正文,其实是通过下面的步骤获取的:
                  response.text = response.content.decode(response.encoding)
    (5)乱码问题的解决办法:

        产生的原因:编码和解码的编码格式不一致造成的。
          str.encode('编码')---将字符串按指定编码解码成bytes类型
          bytes.decode('编码')---将bytes类型按指定编码编码成字符串。
        a、response.content.decode('页面正确的编码格式')
          <meta http-equiv="content-type" content="text/html;charset=utf-8">
        b、找到正确的编码,设置到response.encoding中
          response.encoding = 正确的编码
          response.text——>正确的页面内容。

  3、get请求项目总结:

    a、没有请求参数的情况下,只需要确定url和headers字典。
    b、get请求是有请求参数。  
      在chrome浏览器中,下面找query_string_params,将里面的参数封装到params字典中。
    c、分页主要是查看每页中,请求参数页码字段的变化,找到变化规律,用for循环就可以做到分页。

三、post请求

  1、参数

 requests.post(
    url=请求url,
    headers = 请求头字典,
    data=请求数据字典
    timeout=超时时长
    )——response对象
    # post请求一般返回数据都是json数据。

  2、解析json数据的方法:

      (1)response.json()——>json字符串所对应的python的list或者dict
      (2)用json模块。
        json.loads(json_str)——>json_data(python的list或者dict)
        json.dumps(json_data)——>json_str

  3、post请求能否成功,关键看请求参数。

    如何查找是哪个请求参数在影响数据获取?——>通过对比,找到变化的参数。
    变化参数如何找到参数的生成方式,就是解决这个ajax请求数据获取的途径。
   

    寻找的办法有以下几种:
      (1)写死在页面。
      (2)写在js中。
      (3)请求参数是在之前的一条ajax请求的数据里面提前获取好的。

四、代理使用方法

  1、代理基本原理

    代理形象的说,他是网络信息中转站。实际上就是在本机和服务器之间架了一座桥。

  2、代理的作用

    (1)突破自身ip访问现实,可以访问一些平时访问不到网站。
    (2)访问一些单位或者团体的资源。
    (3)提高访问速度。代理的服务器主要作用就是中转,所以一般代理服务里面都是用内存来进行数据存储的。
    (4)隐藏ip。

  3、代理的分类

    (1)按照协议进行划分:
      ①FTP代理服务器---21,2121
      ②HTTP代理服务器---80,8080
      ③SSL/TLS代理:主要用访问加密网站。端口:443
      ④telnet代理 :主要用telnet远程控制,端口一般为23
    (2)照匿名程度:
      ①高度匿名代理:数据包会原封不动转化,在服务段看来,就好像一个普通用户在访问,做到完全隐藏ip。
      ②普通匿名代理:数据包会做一些改动,服务器有可能找到原ip。
      ③透明代理:不但改动数据,还会告诉服务,是谁访问的。
      ④间谍代理:指组织或者个人用于记录用户传输数据,然后进行研究,监控等目的的代理。

  4、在requests模块中如何设置代理

      proxies = {
        '代理服务器的类型':'代理ip'
        }
      response = requests.get(proxies = proxies)
      代理服务器的类型:http,https,ftp
      代理ip:http://ip:port

【python爬虫】requests模块的更多相关文章

  1. python 爬虫 requests模块 目录

    requests模块(response常用属性) 基于requests模块的get请求 基于requests模块发起ajax的get请求 基于requests模块发起ajax的post请求

  2. python爬虫requests模块

    requests库的七个主要方法 1. requests.requests(method, url, **kwargs) 构造一个请求,支撑以下各方法的基础方法 method:请求方式,对应get/p ...

  3. python 爬虫 requests模块(response常用属性)

    response常用属性 content获取的response对象中的二进制(byte)类型的页面数据response.content 返回响应状态码response.status_code 200 ...

  4. Python爬虫之使用Fiddler+Postman+Python的requests模块爬取各国国旗

    介绍   本篇博客将会介绍一个Python爬虫,用来爬取各个国家的国旗,主要的目标是为了展示如何在Python的requests模块中使用POST方法来爬取网页内容.   为了知道POST方法所需要传 ...

  5. Python爬虫—requests库get和post方法使用

    目录 Python爬虫-requests库get和post方法使用 1. 安装requests库 2.requests.get()方法使用 3.requests.post()方法使用-构造formda ...

  6. python爬虫 urllib模块url编码处理

    案例:爬取使用搜狗根据指定词条搜索到的页面数据(例如爬取词条为‘周杰伦'的页面数据) import urllib.request # 1.指定url url = 'https://www.sogou. ...

  7. python 爬虫 urllib模块 目录

    python 爬虫 urllib模块介绍 python 爬虫 urllib模块 url编码处理 python 爬虫 urllib模块 反爬虫机制UA python 爬虫 urllib模块 发起post ...

  8. Python之requests模块-hook

    requests提供了hook机制,让我们能够在请求得到响应之后去做一些自定义的操作,比如打印某些信息.修改响应内容等.具体用法见下面的例子: import requests # 钩子函数1 def ...

  9. Python之requests模块-cookie

    cookie并不陌生,与session一样,能够让http请求前后保持状态.与session不同之处,在于cookie数据仅保存于客户端.requests也提供了相应到方法去处理cookie. 在py ...

  10. Python之requests模块-session

    http协议本身是无状态的,为了让请求之间保持状态,有了session和cookie机制.requests也提供了相应的方法去操纵它们. requests中的session对象能够让我们跨http请求 ...

随机推荐

  1. GitLab基本设置-新增用户

    场景 Docker Compose部署GitLab服务,搭建自己的代码托管平台(图文教程): https://blog.csdn.net/BADAO_LIUMANG_QIZHI/article/det ...

  2. iOS 中使用 webSocket

    iOS 中使用 webSocket 是服务器和app之间的一种通信方式 webSocket 实现了服务端推机制(主动向客户端发送消息).新的 web 浏览器全都支持 WebSocket,这使得它的使用 ...

  3. DSP编程与调试总结

    (1)error: can't allocate .ebss, size 000c450d (page 1) in DXINTFRAM2 (avail: 00010000) error: errors ...

  4. Linux基础命令---ntpstat显示时间服务器同步

    ntpstat ntpstat指令用于显示本机上一次和服务器同步时间的情况. 此命令的适用范围:RedHat.RHEL.Ubuntu.CentOS.Fedora.   1.语法 ntpstat   2 ...

  5. Oracle ASM无法识别扩展分区的磁盘设备

    在linux 环境下,我们一般通过udev或者asmlib来绑定磁盘分区作为ASM的候选存储单元.在使用udev的情况下,一般只要我们可以看到被绑定的磁盘的设备,并且这些设备的属主和权限没有问题,AS ...

  6. Keepalived集群软件高级使用(工作原理和状态通知)

    1.介绍 Keeaplived主要有两种应用场景,一个是通过配置keepalived结合ipvs做到负载均衡(LVS+Keepalived),有此需求者可参考以往博文:http://lizhenlia ...

  7. flutter---安装教程

    下载java jdk  https://www.oracle.com/technetwork/java/javase/downloads/jdk13-downloads-5672538.html 下载 ...

  8. 利用Python进行数据分析-Pandas(第六部分-数据聚合与分组运算)

    对数据集进行分组并对各组应用一个函数(无论是聚合还是转换),通常是数据分析工作中的重要环节.在将数据集加载.融合.准备好之后,通常是计算分组统计或生成透视表.pandas提供了一个灵活高效的group ...

  9. CNN卷积核

    一.卷积操作有两个问题: 1. 图像越来越小: 2. 图像边界信息丢失,即有些图像角落和边界的信息发挥作用较少.因此需要padding. 二.卷积核大小通常为奇数 1.一方面是为了方便same卷积pa ...

  10. Hyperledger Fabric相关文件解析

    1相关文件说明 这一部分涉及相关配置文件的解析, 网络的启动涉及到多个文件,本文按以下顺序进行分析: . ├── base │   ├── docker-compose-base.yaml #1 │  ...