一、安装requests库

pip install requests

二、引用这个模块

import requests

三、requests的基本使用

1.发送GET请求

调用requests模块中的get()函数

import requests  # 引入第三方库
response = requests.get('https://www.baidu.com')
print(response.text) # 以文本形式打印响应的内容

带参数的GET请求,有时候需要在URL中加入一些参数来完成请求,requests提供使用params参数来传递参数

import requests

url = 'https://www.baidu.com'
params = {'key1': 'value1', 'key2': 'value2'}
response = requests.get(url, params=params)
print(response.text)

2.发送POST请求

发送POST请求时需要设置data参数或json参数

import requests

data = {'key1': 'value1', 'key2': 'value2'}
response = requests.post('https://www.baidu.com', data=data)
print(response.text)
or
response = requests.post('https://www.baidu.com', json=data)
print(response.text)

3.设置请求头信息

在很多情况中,我们都需要进行请求头伪装,需要在请求中添加一些HTTP头信息。设置一个user-agent的请求头来模拟浏览器请求的方式。使用requests时,只需要调用请求对象的headers属性

import requests

headers = {'user-agent':'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/114.0.0.0 Safari/537.36'}
response = requests.get('https://www.baidu.com', headers=headers)
print(response.text)

爬虫初阶requests模块的使用的更多相关文章

  1. 爬虫简介与requests模块

    爬虫简介与requests模块 一 爬虫简介 概述 网络爬虫是一种按照一定规则,通过网页的链接地址来寻找网页的,从网站某一个页面(通常是首页)开始,读取网页的内容,找到网页中的其他链接地址,然后通过这 ...

  2. 爬虫基础之requests模块

    1. 爬虫简介 1.1 概述 网络爬虫(又被称为网页蜘蛛,网络机器人,在FOAF社区中间,更经常的称为网页追逐者),是一种按照一定的规则,自动地抓取万维网信息的程序或者脚本. 1.2 爬虫的价值 在互 ...

  3. 爬虫开发5.requests模块的cookie和代理操作

    代理和cookie操作 一.基于requests模块的cookie操作 引言:有些时候,我们在使用爬虫程序去爬取一些用户相关信息的数据(爬取张三“人人网”个人主页数据)时,如果使用之前requests ...

  4. 爬虫开发3.requests模块

    requests模块 - 基于如下5点展开requests模块的学习 什么是requests模块 requests模块是python中原生的基于网络请求的模块,其主要作用是用来模拟浏览器发起请求.功能 ...

  5. python网络爬虫之二requests模块

    requests http请求库 requests是基于python内置的urllib3来编写的,它比urllib更加方便,特别是在添加headers, post请求,以及cookies的设置上,处理 ...

  6. 爬虫中之Requests 模块的进阶

    requests进阶内容 session处理cookie proxies参数设置请求代理ip 基于线程池的数据爬取 引入 有些时候,我们在使用爬虫程序去爬取一些用户相关信息的数据(爬取张三“人人网”个 ...

  7. 爬虫简介和requests模块

    目录 爬虫介绍 requests模块 requests模块 1.requests模块的基本使用 2.get 请求携带参数,调用params参数,其本质上还是调用urlencode 3.携带header ...

  8. 爬虫入门之Requests模块学习(四)

    1 Requests模块解析 Requests 唯一的一个非转基因的 Python HTTP 库,人类可以安全享用 Requests 继承了urllib2的所有特性.Requests支持HTTP连接保 ...

  9. 爬虫(四):requests模块

    1. requests模块 1.1 requests简介 requests 是一个功能强大.简单易用的 HTTP 请求库,比起之前用到的urllib模块,requests模块的api更加便捷.(本质就 ...

  10. Python爬虫学习1: Requests模块的使用

    Requests函数库是学习Python爬虫必备之一, 能够帮助我们方便地爬取. Requests: 让HTTP服务人类. 本文主要参考了其官方文档. Requests具有完备的中英文文档, 能完全满 ...

随机推荐

  1. 对比Jira/禅道后,我们为什么选择Leangoo做敏捷项目管理?

    一.敏捷团队的3大隐形痛点 我曾带领过一个6人的Scrum团队,迭代经常遇到: 需求变更黑洞:客户口头需求未及时同步,开发完成后才发现理解偏差(案例:某次迭代因此浪费32人日) 进度监控盲区:用Exc ...

  2. 洛谷 P1416 攻击火星 排版重构

    洛谷 P1416 攻击火星 原题P1416 Update 20210307 修复了挂掉的图片 20210307 重构排版 Solution understand 首先,你弄明白了什么是度吗? 一个点的 ...

  3. 敏捷史话(十六):我对《敏捷宣言》没有半点贡献—— Brian Marick

    " 虽然我是敏捷宣言的作者之一,但我实际上的贡献只是提供了'宣言'这个词而已."Brian Marick 在一次演讲上说道.他说完,现场传来阵阵笑声.因为大家都明白,这只是他的自谦 ...

  4. anaconda基本操作及一些问题的解决记录

    anaconda虚拟环境 # anaconda 创建虚拟环境: conda create -n 虚拟环境名称 python=版本号 查看所有虚拟环境: conda env list 使用虚拟环境: c ...

  5. Castle Defense

    你需要最大化被数量最少的弓箭手保护的墙被弓箭手保护的数量.想到什么,对了,二分答案. 对 $check$ 函数进行思考. 令答案为 $m$. 如果一个点的值小于 $m$,则考虑将其变成 $m$,那么将 ...

  6. crictl基础操作

    # 1. 查看机器上的镜像列表 crictl images ls # 2.删除机器上没用使用的镜像 crictl rmi --prune

  7. 不写代码,让 AI 生成手机 APP!保姆级教程

    你现在看到的 APP,是我完全用 AI 生成的,一行代码都没写!怎么做到的呢? 大家好,我是程序员鱼皮.AI 发展很快,现在随随便便就能生成一个网站,但是怎么纯用 AI 开发能在手机上运行的 APP ...

  8. 书籍赠送丨《Flink jm、tm启动过程和资源分配》直播预告

    5月20日晚19点,袋鼠云数栈技术研发团队开发工程师--吹雪,将会为大家直播分享<Flink jm.tm启动过程和资源分配>. 课程内容主要包括以下三点: 1.flink jm启动过程2. ...

  9. oracle 存储过程 for loop 定时任务

    记录. 是这么个事,要实现一个需求,当人员表里的数据有更新后需要告知其他系统更新他们自己的人员数据. 我想了一下,表里是有时间戳字段的,那我只要监听这个时间就行,拿到数据后用存储过程把数据插入到中间表 ...

  10. C# 中 const 和 readonly 关键字的区别和用法

    前言 今天我们一起来讲讲 C# 中 const 和 readonly 关键字的区别和用法. const 和 readonly 关键字区别 基本介绍 const(常量): 在C#中用于声明编译时常量,其 ...