1urlopen

属于url.request类

我们用urlopen("网址")来发送请求

最基础的发送请求如下

from urllib.request import urlopen

reponse=urlopen('https://www.baidu.com')

print(reponse.read.decode('utf-8'))

这里面的reponse是一个HTTPResponse类型的对象

包含的方法有read(),readto(),getheader(name),getheaders(),fileno()

read上面已经用过我们还可以print(reponse.getheaders());print(reponse.getheader('name'))

包含的属性有msg,version,status,reason,debuglevel,close等

同时urlopen还有其他参数可以选例如:

data参数,要求字节流编码格式内容

data=bytes(urllib.parse.urlencode({'word':'hello'},encode='utf-8')),

timeout参数,表示超过指定时间,就会抛出异常

try:

  response=urllib.request.urlopen('http://httpbin.org/get',timeout=0.1)

except urllib.error.URLErroe as e:

  if isinstance(e.reason,socket.timeout):

    print('Time Out')

其它还有context参数,cafile,capath参数

2Rquest

urlopen只能发起最简单的请求,如果我们需要在请求中加入一些Headers等信息,就需要用到Request

Resquest的构造方法如下

class urllib.request.Request(url,data=None,headers={},origin_req_host=None,\

unverifiable=False,method=None)

url:必填参数

data参数:同上,如果要传,必须要传bytes类型,如果是字典,用parse模块里面的urlencode编码

headers参数:是一个字典,这是请求中的headers了,可以自己直接构造,还可以调用Request示例的add_headers()方法

origin_req_host参数是指的请求方host名称或者IP地址。

underifiable参数值得是这个请求是无法验证的,默认是false

methon参数用来支持请求使用的方法,比如GET,POST,PUT等等

下面是例子

url='http://httpbin.org/post'

headers={

  'User-Agent':'Mozilla/4.0 (compatible; MSIE 5.5; Windows NT)',

  Host': 'httpbin.org'

}

dict={

  ‘name’:'lihua'}

data=bytes(parse.urlendoe(dict),encoding='utf-8')

req=request.Request(url=url,data=data,headers=headers,method='POST')

reponse=request.urlopen(erq)

print(repose,read().decode('utf-8'))

想要使用add_headerd的话则这么写

req=request.Request(url=url,data=data,method='POST')

req.add_header('User-Agent','Mozilla/4.0 (compatible; MSIE 5.5; Windows NT)')

下面的就是更高级的handler的用法,以后再续

python3 爬虫2--发送请求1的更多相关文章

  1. 爬虫模块介绍--request(发送请求模块)

    爬虫:可见即可爬   # 每个网站都有爬虫协议 基础爬虫需要使用到的三个模块 requests 模块  # 模拟发请求的模块 PS:python原来有两个模块urllib和urllib的升级urlli ...

  2. python3爬虫中文乱码之请求头‘Accept-Encoding’:br 的问题

    当用python3做爬虫的时候,一些网站为了防爬虫会设置一些检查机制,这时我们就需要添加请求头,伪装成浏览器正常访问. header的内容在浏览器的开发者工具中便可看到,将这些信息添加到我们的爬虫代码 ...

  3. Python3编写网络爬虫01-基本请求库urllib的使用

    安装python后 自带urllib库 模块篇 分为几个模块如下: 1. urllib.request 请求模块 2. urllib.parse 分析模块 3. urllib.error 异常处理模块 ...

  4. Python3爬虫(三)请求库的使用之urllib

    Infi-chu: http://www.cnblogs.com/Infi-chu/ 一.urllib库: 1. 是Python内置的HTTP请求库 2. 在Python2中,由urllib和urll ...

  5. Python爬虫(二)——发送请求

    1. requests库介绍 ​ 在python中有许多支持发送的库.比如:urlib.requests.selenium.aiohttp--等.但我们当前最常用的还是requests库,这个库是基于 ...

  6. Java爬虫(一)利用GET和POST发送请求,获取服务器返回信息

    本人所使用软件 eclipse fiddle UC浏览器 分析请求信息 以知乎(https://www.zhihu.com)为例,模拟登陆请求,获取登陆后首页,首先就是分析请求信息. 用UC浏览器F1 ...

  7. 20200726_java爬虫_使用HttpClient模拟浏览器发送请求

    浏览器获取数据: 打开浏览器 ==> 输入网址 ==> 回车查询 ==> 返回结果 ==> 浏览器显示结果数据 HttpClient获取数据: 创建HttpClient ==& ...

  8. 【Python3爬虫】最新的模拟登录新浪微博教程

    一.写在前面 首先呢,由于之前重装系统,又要重新配置环境,然后还有一些别的事,导致我一直没有写爬虫了,不过现在又可以继续写了. 然后我这次说的模拟登录新浪微博呢,不是使用Selenium模拟浏览器操作 ...

  9. 【Python3爬虫】用Python中的队列来写爬虫

    一.写在前面 当你看着你的博客的阅读量慢慢增加的时候,内心不禁有了些小激动,但是不得不吐槽一下--博客园并不会显示你的博客的总阅读量是多少.而这一篇博客就将教你怎么利用队列这种结构来编写爬虫,最终获取 ...

随机推荐

  1. node(s) didn‘t match node selector.

    k8s集群中,有pod出现了 Pending ,通过 kubectl describe pod 命令,发现了如下报错 0/4 nodes are available: 1 node(s) had ta ...

  2. CentOS8系统上Zookeeper安装启动

    下载Zookeeper安装包,下载地址为:https://zookeeper.apache.org/releases.html.注意选择bin的gz包,否则安装不成功,提示找不到相应的类. 一.单机模 ...

  3. MyBatis中执行器Executor框架

    与JDK提供的Executor框架类似,MyBatis也提供了一套Executor框架,具体如下图: 其为Mybatis提供与数据库交互的功能,是一个典型的装饰器模式的应用--对JDBC功能的封装,同 ...

  4. 图解python | 安装与环境设置

    作者:韩信子@ShowMeAI 教程地址:http://www.showmeai.tech/tutorials/56 本文地址:http://www.showmeai.tech/article-det ...

  5. Win10系统下关闭管理员运行确认弹窗

    Windows10及以上系统对于安全的考虑,对于程序运行时的权限做了控制.    点击后,会弹出确认的弹窗. 像我做测试,或者使用cmd经常需要administrator 权限,一直弹弹弹就很烦. 要 ...

  6. 60天shell脚本计划-10/12-渐入佳境

    --作者:飞翔的小胖猪 --创建时间:2021年3月13日 --修改时间:2021年3月17日 说明 每日上传更新一个shell脚本,周期为60天.如有需求的读者可根据自己实际情况选用合适的脚本,也可 ...

  7. Java中ArrayList和LinkedList的异同

    一:ArrayList和LinkedList的大致区别如下: 1.ArrayList是实现了基于动态数组的数据结构,ArrayList实现了长度可变的数组,在内存中分配连续的空间.遍历元素和随机访问元 ...

  8. Web端网站兼容性测试如何进行?来看看浏览器的兼容性测试要点

    软件兼容性测试工作的目标是保证软件按照用户期望的方式进行交互.随着用户对来自各种类型软件之间共享数据能力和充分利用空间同时执行多个程序能力的要求,测试软件之间能否协作变得越来越重要. 平台的兼容性,包 ...

  9. 【.NET6+WPF+Avalonia】开发支持跨平台的WPF应用程序以及基于ubuntu系统的演示

    前言:随着跨平台越来越流行,.net core支持跨平台至今也有好几年的光景了.但是目前基于.net的跨平台,大多数还是在使用B/S架构的跨平台上:至于C/S架构,大部分人可能会选择QT进行开发,或者 ...

  10. social network 中Clustering Coefficient 相关笔记2

    breath_first search 改变了原图的连接情况.