常见的爬虫分析库(1)-Python3中Urllib库基本使用
原文来自:https://www.cnblogs.com/0bug/p/8893677.html
什么是Urllib?
Python内置的HTTP请求库
urllib.request 请求模块
urllib.error 异常处理模块
urllib.parse url解析模块
urllib.robotparser robots.txt解析模块
相比Python的变化
Python2中的urllib2在Python3中被统一移动到了urllib.request中
python2
import urllib2
response = urllib2.urlopen('http://www.cnblogs.com/0bug')
Python3
import urllib.request
response = urllib.request.urlopen('http://www.cnblogs.com/0bug/')
urlopen()
不加data是以GET方式发送,加data是以POST发送
|
1
2
3
4
5
|
import urllib.requestresponse = urllib.request.urlopen('http://www.cnblogs.com/0bug')html = response.read().decode('utf-8')print(html) |
结果
加data发送POST请求
|
1
2
3
4
5
6
|
import urllib.parseimport urllib.requestdata = bytes(urllib.parse.urlencode({'hello': '0bug'}), encoding='utf-8')response = urllib.request.urlopen('http://httpbin.org/post', data=data)print(response.read()) |
timeout超时间
|
1
2
3
4
|
import urllib.requestresponse = urllib.request.urlopen('http://www.cnblogs.com/0bug', timeout=0.01)print(response.read()) |
|
1
2
3
4
5
6
7
8
|
import urllib.requestimport socketimport urllib.errortry: response = urllib.request.urlopen('http://www.cnblogs.com/0bug', timeout=0.01)except urllib.error.URLError as e: if isinstance(e.reason,socket.timeout): print('请求超时') |
响应
1.响应类型
|
1
2
3
4
|
import urllib.requestresponse = urllib.request.urlopen('http://www.cnblogs.com/0bug')print(type(response)) |
2.状态码、响应头
|
1
2
3
4
5
6
|
import urllib.requestresponse = urllib.request.urlopen('http://www.cnblogs.com/0bug')print(response.status)print(response.getheaders())print(response.getheader('Content-Type')) |
3.响应体
响应体是字节流,需要decode('utf-8')
|
1
2
3
4
5
|
import urllib.requestresponse = urllib.request.urlopen('http://www.cnblogs.com/0bug')html = response.read().decode('utf-8')print(html) |
Request
|
1
2
3
4
5
|
import urllib.requestrequest = urllib.request.Request('http://www.cnblogs.com/0bug')response = urllib.request.urlopen(request)print(response.read().decode('utf-8')) |
添加请求头信息
|
1
2
3
4
5
6
7
8
9
10
11
12
|
from urllib import request, parseurl = 'http://httpbin.org/post'headers = { 'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/65.0.3325.181 Safari/537.36', 'Host': 'httpbin.org'}dic = {'name': '0bug'}data = bytes(parse.urlencode(dic), encoding='utf-8')req = request.Request(url=url, data=data, headers=headers, method='POST')response = request.urlopen(req)print(response.read().decode('utf-8')) |
add_header
|
1
2
3
4
5
6
7
8
9
10
|
from urllib import request, parseurl = 'http://httpbin.org/post'dic = {'name': '0bug'}data = bytes(parse.urlencode(dic), encoding='utf-8')req = request.Request(url=url, data=data, method='POST')req.add_header('User-Agent', 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/65.0.3325.181 Safari/537.36')response = request.urlopen(req)print(response.read().decode('utf-8')) |
Handler
代理:
|
1
2
3
4
5
6
7
8
9
|
import urllib.requestproxy_handler = urllib.request.ProxyHandler({ 'http': 'http代理', 'https': 'https代理'})opener = urllib.request.build_opener(proxy_handler)response = opener.open('http://www.cnblogs.com/0bug')print(response.read()) |
Cookie
|
1
2
3
4
5
6
7
8
|
import http.cookiejar, urllib.requestcookie = http.cookiejar.CookieJar()handler = urllib.request.HTTPCookieProcessor(cookie)opener = urllib.request.build_opener(handler)response = opener.open('http://www.baidu.com')for item in cookie: print(item.name + "=" + item.value) |
Cookie保存为文件
|
1
2
3
4
5
6
7
8
|
import http.cookiejar, urllib.requestfilename = 'cookie.txt'cookie = http.cookiejar.MozillaCookieJar(filename)handler = urllib.request.HTTPCookieProcessor(cookie)opener = urllib.request.build_opener(handler)response = opener.open('http://www.baidu.com')cookie.save(ignore_discard=True, ignore_expires=True) |
cookie.txt
另一种方式存
|
1
2
3
4
5
6
7
8
|
import http.cookiejar, urllib.requestfilename = 'cookie.txt'cookie = http.cookiejar.LWPCookieJar(filename)handler = urllib.request.HTTPCookieProcessor(cookie)opener = urllib.request.build_opener(handler)response = opener.open('http://www.baidu.com')cookie.save(ignore_discard=True, ignore_expires=True) |
用什么格式的存就应该用什么格式的读
|
1
2
3
4
5
6
7
8
|
import http.cookiejar, urllib.requestcookie = http.cookiejar.LWPCookieJar()cookie.load('cookie.txt', ignore_discard=True, ignore_expires=True)handler = urllib.request.HTTPCookieProcessor(cookie)opener = urllib.request.build_opener(handler)response = opener.open('http://www.baidu.com')print(response.read().decode('utf-8')) |
异常处理
|
1
2
3
4
5
6
|
from urllib import request, errortry: response = request.urlopen('http://www.cnblogs.com/0bug/xxxx')except error.URLError as e: print(e.reason) |
|
1
2
3
4
5
6
7
8
9
10
|
from urllib import request, errortry: response = request.urlopen('http://www.cnblogs.com/0bug/xxxx')except error.HTTPError as e: print(e.reason, e.code, e.headers, sep='\n')except error.URLError as e: print(e.reason)else: print('Request Successfully') |
|
1
2
3
4
5
6
7
8
9
10
|
import socketimport urllib.requestimport urllib.errortry: response = urllib.request.urlopen('http://www.cnblogs.com/0bug/xxxx', timeout=0.001)except urllib.error.URLError as e: print(type(e.reason)) if isinstance(e.reason, socket.timeout): print('请求超时') |
URL解析
|
1
2
3
4
5
|
from urllib.parse import urlparseresult = urlparse('www.baidu.com/index.html;user?id=5#comment')print(type(result))print(result) |
|
1
2
3
4
|
from urllib.parse import urlparseresult = urlparse('www.baidu.com/index.html;user?id=5#comment', scheme='https')print(result) |
|
1
2
3
4
|
from urllib.parse import urlparseresult = urlparse('http://www.baidu.com/index.html;user?id=5#comment', scheme='https')print(result) |
|
1
2
3
4
|
from urllib.parse import urlparseresult = urlparse('http://www.badiu.com/index.html;user?id=5#comment', allow_fragments=False)print(result) |
|
1
2
3
4
|
from urllib.parse import urlparseresult = urlparse('http://www.badiu.com/index.html#comment', allow_fragments=False)print(result) |
urlunparse
|
1
2
3
4
|
from urllib.parse import urlunparsedata = ['http', 'www.baidu.com', 'index.html', 'user', 'id=6', 'comment']print(urlunparse(data)) |
urljoin
|
1
2
3
4
5
6
7
8
9
10
|
from urllib.parse import urljoinprint(urljoin('http://www.baidu.com', 'ABC.html'))print(urljoin('http://www.baidu.com', 'https://www.cnblogs.com/0bug'))print(urljoin('http://www.baidu.com/0bug', 'https://www.cnblogs.com/0bug'))print(urljoin('http://www.baidu.com/0bug', 'https://www.cnblogs.com/0bug?q=2'))print(urljoin('http://www.baidu.com/0bug?q=2', 'https://www.cnblogs.com/0bug'))print(urljoin('http://www.baidu.com', '?q=2#comment'))print(urljoin('www.baidu.com', '?q=2#comment'))print(urljoin('www.baidu.com#comment', '?q=2')) |
urlencode
|
1
2
3
4
5
6
7
8
9
|
from urllib.parse import urlencodeparams = { 'name': '0bug', 'age': 25}base_url = 'http://www.badiu.com?'url = base_url + urlencode(params)print(url) |
常见的爬虫分析库(1)-Python3中Urllib库基本使用的更多相关文章
- Python2和Python3中urllib库中urlencode的使用注意事项
前言 在Python中,我们通常使用urllib中的urlencode方法将字典编码,用于提交数据给url等操作,但是在Python2和Python3中urllib模块中所提供的urlencode的包 ...
- python3中urllib库的request模块详解
刚刚接触爬虫,基础的东西得时时回顾才行,这么全面的帖子无论如何也得厚着脸皮转过来啊! 原帖地址:https://www.2cto.com/kf/201801/714859.html 什么是 Urlli ...
- Python3中Urllib库基本使用
什么是Urllib? Python内置的HTTP请求库 urllib.request 请求模块 urllib.error 异常处理模块 urllib.par ...
- 爬虫中urllib库
一.urllib库 urllib是Python自带的一个用于爬虫的库,其主要作用就是可以通过代码模拟浏览器发送请求.其常被用到的子模块在Python3中的为urllib.request和urllib. ...
- 对python3中pathlib库的Path类的使用详解
原文连接 https://www.jb51.net/article/148789.htm 1.调用库 ? 1 from pathlib import 2.创建Path对象 ? 1 2 3 4 5 ...
- Python3中urllib使用介绍
Py2.x: Urllib库 Urllin2库 Py3.x: Urllib库 变化: 在Pytho2.x中使用import urllib2——-对应的,在Python3.x中会使用import url ...
- Python3中urllib使用与源代码
Py2.x: Urllib库 Urllin2库 Py3.x: Urllib库 变化: 在Pytho2.x中使用import urllib2---对应的,在Python3.x中会使用import url ...
- Python爬虫入门(3-4):Urllib库的高级用法
1.分分钟扒一个网页下来 怎样扒网页呢?其实就是根据URL来获取它的网页信息,虽然我们在浏览器中看到的是一幅幅优美的画面,但是其实是由浏览器解释才呈现出来的,实质它 是一段HTML代码,加 JS.CS ...
- Python爬虫实战(一) 使用urllib库爬取拉勾网数据
本笔记写于2020年2月4日.Python版本为3.7.4,编辑器是VS code 主要参考资料有: B站视频av44518113 Python官方文档 PS:如果笔记中有任何错误,欢迎在评论中指出, ...
随机推荐
- hadoop-1.2.1集群搭建
继续上一篇:http://www.cnblogs.com/CoolJayson/p/7430654.html 首先需要安装上台虚拟机, 分别为: master, salve1, slave2 1.复制 ...
- 20165325 2017-2018-2 《Java程序设计》结对编程_第一周:四则运算
一.码云链接 项目名称FAO 码云链接 二.需求分析 实现一个命令行程序: 自动生成小学四则运算题目(加.减.乘.除) 支持整数 支持多运算符(比如生成包含100个运算符的题目) 支持真分数 统计正确 ...
- 使用@Valid和BindingResult验证请求参数的合法性并处理校验结果
/** * 添加用户,使用@RequestBody将请求体映射到Action方法参数中 * 使用@Valid注解验证请求参数的合法性 * 使用BindingResult处理校验结果 * @param ...
- 2.获取公开的漏洞信息-查询还有哪些系统补丁未堵住-查询exp
本章内容为第一课的实战部分,请结合原创一起浏览. 微软官网 https://www.microsoft.com/zh-cn 在页脚找到TechNet 查看安全公告 MS系列微软编号在微软安全报告中存在 ...
- Python 标准异常总结
AssertionError 断言语句(assert) AttributeError 尝试访问未知的对象属性 EOFError 用户输入文件末尾标志EOF(Ctrl+d) FloatingPointE ...
- valgrind--内存泄漏检测(转)
Valgrind 概述 体系结构 Valgrind是一套Linux下,开放源代码(GPL V2)的仿真调试工具的集合.Valgrind由内核(core)以及基于内核的其他调试工具组成.内核类似于一个框 ...
- Windows PowerShell 入門(7)-関数編2
この連載では.Microsoftが提供している新しいシェル.Windows Power Shellの使い方を解説します.前回に引き続きPowerShellにおける関数の取り扱いとして.変数と関数のスコ ...
- VUE环境部署
npm install vue-router --save 下载node.js安装https://nodejs.org/en/ npm install -g cnpm --registry=http ...
- 基于OpenSSL自建CA和颁发SSL证书
关于SSL/TLS介绍见文章 SSL/TLS原理详解.关于证书授权中心CA以及数字证书等概念,请移步 OpenSSL 与 SSL 数字证书概念贴 . openssl是一个开源程序的套件.这个套件有三个 ...
- QT中定时器
目前涉及到的主要有两种: 1.每隔一段时间执行 QTimer *timer = new QTimer(this); connect(timer, SIGNAL(timeout()), this, SL ...