Python3编写网络爬虫01-基本请求库urllib的使用
安装python后 自带urllib库
模块篇 分为几个模块如下:
1. urllib.request 请求模块
2. urllib.parse 分析模块
3. urllib.error 异常处理模块
4. urllib.robotparser robots文本协议识别 用的比较少
方法篇 分为以下几种方法:
urlopen()
示例:
import urllib.request
response = urllib.request.urlopen("https://www.python.org")
print(response.read().decode('utf-8'))
type()方法 read()方法 status 方法 getheaders() getheader('Server')
示例
import urllib.request
response = urllib.request.urlopen("https://www.python.org")
print(type(response))
print(response.read())
print(response.status)
print(response.getheaders())
print(response.getheader('Server'))
参数篇 url data timeout
url 请求的URL地址
data 内容
示例
import urllib.parse
import urllib.request data = bytes(urllib.parse.urlencode({'name':'hello','pass':'123'}),encoding='utf-8')
response = urllib.request.urlopen('http://www.iqianyue.com/mypost',data=data)
print(response.read())
timeout 请求超时
示例
import urllib.request
response = urllib.request.urlopen('httpbin.org/get',timeout=1)
print(respons.read())
import socket
import urllib.request
import urllib.error
try:
response = urllib.request.urlopen('http://httpbin.org/get',timeout=0.1)
except urllib.error.URLError as e:
if isinstance(e.reason,socket.timeout):
print('TIME OUT')
requests urllib自带的请求模块
示例
import urllib.request
request = urllib.request.Request("http://www.baidu.com")
response = urllib.request.urlopen(request)
print(response.read().decode('utf-8'))
add_header
quote() 将内容转化为URL编码
unquote() 解码
爬虫爬取百度贴吧实例
import urllib
import urllib.request
import urllib.parse #百度贴吧爬虫接口 组合url地址 起始页和终止页
def tiebaSpider(url,beginPage,endPage):
"""
作用:负责处理 url 分配每一个url去发送请求
:param url: 处理第一个url
:param beginPage: 爬虫起始页
:param endPage: 爬虫终止页
:return: null
"""
for Page in range(beginPage,endPage+1):
pn = (Page-1)*50
filename = "第" + str(Page) + "页.html"
#组合url 发送请求
fullurl = url + "&pn=" + str(pn)
# print fullurl
# 调用loadPage()函数发送请求获取HTML页面
html = loadPage(fullurl,filename)
# 调用writePage()函数 将服务器响应文件保存到本地磁盘
writeFile(html,filename) def loadPage(url,filename):
"""
作用:根据url发送请求 获取服务器响应数据
:param url: 请求地址
:param filename: 文件名
:return:服务器响应文件
"""
print("正在下载" + filename)
headers = {"User-Agent":"Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/51.0.2704.103 Safari/537.36"}
request = urllib.request.Request(url,headers = headers)
response = urllib.request.urlopen(request)
return response.read() def writeFile(html,filename):
"""
作用:保存服务器文件到本地磁盘
:param html: 服务器文件
:param filename:本地磁盘文件名
:return:null
"""
print("正在存储" + filename)
with open(filename,"wb+") as f:
f.write(html)
print("-"*20) #模拟main 函数
if __name__ == "__main__":
kw = input("请输入要爬取的贴吧名")
#输入起始页和终止页 str转化为int类型
beginPage = int(input("请输入爬取的起始页"))
endPage = int(input("请输入爬取的终止页"))
url = "http://tieba.baidu.com/f?"
key = urllib.parse.urlencode({"kw":kw})
#组合后的url示例 http://tieba.baidu.com/f?kw=lol
url = url + key
tiebaSpider(url,beginPage,endPage)
作业:
page 页码 不出现负数
去贴吧帖子下级目录 里面获取信息
# str为字符串
# str.isalnum() 所有字符都是数字或者字母
# str.isalpha() 所有字符都是字母
# str.isdigit() 所有字符都是数字
# str.islower() 所有字符都是小写
# str.isupper() 所有字符都是大写
# str.istitle() 所有单词都是首字母大写,像标题
# str.isspace() 所有字符都是空白字符、\t、\n、\r
beginPage = input('请输入开始页(整数): ')
while True:
if beginPage.isdigit():
if int(beginPage) <= 0:
beginPage = 1
break
else:
beginPage = int(beginPage)
break
else:
beginPage = input('请重新输入开始页(整数):')
Python3编写网络爬虫01-基本请求库urllib的使用的更多相关文章
- Python3编写网络爬虫02-基本请求库requests的使用
一.requests 库使用 需要安装 pip install requests import requests #导入requests库 request = requests.get("h ...
- Python3编写网络爬虫07-基本解析库pyquery的使用
三.pyquery 简介:同样是一个强大的网页解析工具 它提供了和jQuery类似的语法来解析HTML文档,支持CSS选择器,使用非常方便 安装: pip install pyquery 验证: im ...
- Python3编写网络爬虫06-基本解析库Beautiful Soup的使用
二.Beautiful Soup 简介 就是python的一个HTML或XML的解析库 可以用它来很方便的从网页中提取数据 0.1 提供一些简单的 python式的函数来处理导航,搜索,修改分析树等功 ...
- Python3编写网络爬虫05-基本解析库XPath的使用
一.XPath 全称 XML Path Language 是一门在XML文档中 查找信息的语言 最初是用来搜寻XML文档的 但是它同样适用于HTML文档的搜索 XPath 的选择功能十分强大,它提供了 ...
- python3编写网络爬虫20-pyspider框架的使用
二.pyspider框架的使用 简介 pyspider是由国人binux 编写的强大的网络爬虫系统 github地址 : https://github.com/binux/pyspider 官方文档 ...
- python3编写网络爬虫18-代理池的维护
一.代理池的维护 上面我们利用代理可以解决目标网站封IP的问题 在网上有大量公开的免费代理 或者我们也可以购买付费的代理IP但是无论是免费的还是付费的,都不能保证都是可用的 因为可能此IP被其他人使用 ...
- python3编写网络爬虫17-验证码识别
一.验证码识别 1.图形验证码的识别 识别图形验证码需要 tesserocr 库 OCR技术识别(光学字符识别,是指通过扫描字符,然后通过其形状将其翻译成电子文本的过程.)例如 中国知网注册页面 ht ...
- Python3编写网络爬虫04-爬取猫眼电影排行实例
利用requests库和正则表达式 抓取猫眼电影TOP100 (requests比urllib使用更方便,由于没有学习HTML系统解析库 选用re) 1.目标 抓取电影名称 时间 评分 图片等 url ...
- python3编写网络爬虫21-scrapy框架的使用
一.scrapy框架的使用 前面我们讲了pyspider 它可以快速的完成爬虫的编写 不过pyspider也有一些缺点 例如可配置化不高 异常处理能力有限对于一些反爬虫程度非常强的网站 爬取显得力不从 ...
随机推荐
- es6学习笔记11--Proxy和Reflect
Proxy概述 Proxy用于修改某些操作的默认行为,等同于在语言层面做出修改,所以属于一种“元编程”(meta programming),即对编程语言进行编程. Proxy可以理解成,在目标对象之前 ...
- C# 异常语句 跳转语句 while循环 穷举法 迭代法
一 异常语句 ♦ try.....catch....finally 结构形式 try{ 可能会出错的代码语句 如果这里出错了,那么不会在继续下面的代码,而是直接进入catch中处理异常}catc ...
- java中递归实现复制多级文件夹
常见的流的用法 递归实现复制多级文件夹 FileInputStream & FileOutputStream String content = null;//用来储存解码后的byte数组 in ...
- Java虚拟机 - Javac编译与JIT编译
[深入Java虚拟机]之七:Javac编译与JIT编译 编译过程 不论是物理机还是虚拟机,大部分的程序代码从开始编译到最终转化成物理机的目标代码或虚拟机能执行的指令集之前,都会按照如下图所示的各个步骤 ...
- 从零开始学习html(十一)CSS盒模型——下
六.盒模型--边框(一) <!DOCTYPE HTML> <html> <head> <meta http-equiv="Content-Type& ...
- img,a,锚链接,超链接
1.图片标签:img,单标签 图片属性: src(source): 图片的来源(路径),可以放置本地图片,也可以放网上的图片的url地址 title: 当鼠标停留在图片上的时候,显示提示的文字 alt ...
- [可能不知道]什么是PeopleSoft的JOLT以及相关进程
PeopleSoft applecation server依赖于Jolt,Jolt是与Tuxedo配套的产品,可以处理所有web请求.换句话说,Jolt是application server与web ...
- Windows应用程序进程级别统一监控实践
一般的系统级别指标监控,更多关注CPU.内存.磁盘.网络等运行情况,对应用程序运行时的进程指标关注不够,导致不能深入了解系统运行状态.本文根据笔者应用实践,探讨一下进程级别监控涉及到的监控内容以及监控 ...
- 没有想到speex还在持续的更新
听说微信改用了speex, 于是今天访问了speex网站: http://www.speex.org/ 发现从08年的Speex 1.2rc1之后,在2014年12月份和2015年1月份更新了两次 根 ...
- FragmentStatePagerAdapter和FragmentPagerAdapter区别
FragmentPageAdapter和FragmentStatePagerAdapter 我们简要的来分析下这两个Adapter的区别: FragmentPageAdapter:和PagerAdap ...