Python爬虫实践~BeautifulSoup+urllib+Flask实现静态网页的爬取
爬取的网站类型:
论坛类网站类型
涉及主要的第三方模块:
BeautifulSoup:解析、遍历页面
urllib:处理URL请求
Flask:简易的WEB框架
介绍:
本次主要使用urllib获取网页数据,然后通过BeautifulSoup进行页面解析,返回json结构的数据。
功能点:
urllib根据URL通过GET方式获取网页内容;
通过JSON文件配置
解析页面结构,返回JSON结构的数据
提供REST服务进行调用
特点:
1、提供数据描述服务,总页面,每页条数,总条数;
2、增量请求数据,只获取当前时间和上次请求时间之间的数据;
3、控制请求时间间隔,防治IP被封杀
4、分页数据请求
5、修改请求关键字,并记录上次的请求关键字
主要代码结构:
- 公共请求端封装
#!/usr/bin/env python
# -*- coding:utf-8 -*-
from urllib import request
from urllib.parse import quote
import string
import requests # 静态页面基类
class StaticBase():
# 获取网页内容
def __getHTMLText(self,url,code="utf-8"):
try:
r = requests.get(url)
r.raise_for_status()
r.encoding = code
return r.text
except:
return ""
# get方式请求数据
def getUrl(self,url,code='utf-8'):
url = quote(url,safe=string.printable)
req = request.Request(url)
req.add_header('User-Agent','Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/45.0.2454.101 Safari/537.36')
with request.urlopen(req) as f:
print('Status:',f.status,f.reason)
return f.read().decode(code) #s = StaticBase()
#print(s.getUrl('http://www.baidu.com/','utf-8'))
- 配置文件
{
"host": "http://shangyu.108sq.cn",
"base_url": "http://shangyu.108sq.cn/shuo/search?sertype=4",
"key_words": "污染",
"page_size": 30,
"search_key": "",
"last_request_time": 1562142204.149511,
"request_gap": 60
}
- 解析服务
#!/usr/bin/env python
# -*- coding:utf-8 -*-
from bs4 import BeautifulSoup
from datetime import datetime
import json
from common.staticBase import StaticBase class Shangyh108(StaticBase): __config_file = "config.json" #配置文件
__text = "" #解析的网页内容
__config_dict = {} #配置集合
__url = "" #请求的URL
__keywords = "" #关键字
__last_request_time = 0 #上次请求时间
# 构造函数
def __init__(self):
self.__config_dict = self.__getConfig()
# 查询关键字
if len(self.__config_dict['search_key']) >0 :
self.__keywords = self.__config_dict['search_key']
else:
self.__keywords = self.__config_dict['key_words']
self.__url = self.__getUrl()
# 获取网页内容
def getText(self):
print(self.__url)
self.__text = StaticBase.getUrl(self,self.__url) # 获取第一页内容
def getFirstPageText(self,url=''):
if self.checkRquestTime():
if len(url)==0 :
url = self.__getUrl()
self.__text = StaticBase.getUrl(self,url)
return self.parseHTML()
else:
print("操作频繁请稍后重新")
# 获取下一页
def getNextPage(self,url):
url = self.__config_dict['host']+url
print(url)
self.__text = StaticBase.getUrl(self,url)
return self.parseHTML() # 为防止请求对服务器造成太大压力,控制请求的时间间隔,最少为5分钟
def checkRquestTime(self):
request_gap = self.__config_dict['request_gap']
last_request_time = self.__config_dict['last_request_time']
dt_now = datetime.now().timestamp()
self.__last_request_time = last_request_time # 记录上次请求的时间,为了获取阶段性的数据
if last_request_time == 0: #第一次请求,直接通过
last_request_time = dt_now
elif last_request_time+request_gap > dt_now:
print("请求过度频繁,请稍后重试")
return False
else:
last_request_time = dt_now self.__setConfig('last_request_time',last_request_time)
return True # 获取网页描述信息
def getDesc(self):
self.getText()
soup = BeautifulSoup(self.__text,'html.parser')
obj_count = soup.select('.count')[0]
count_str = str(obj_count.string).replace("(共","").replace("条)","")
count = int(count_str)
pageSize = int(self.__config_dict['page_size'])
host = self.__config_dict['host']
if count % pageSize == 0 :
pages = count//pageSize
else:
pages = count // pageSize + 1
desc = {}
desc['host'] = host
desc['count'] = count
desc['page_size'] = pageSize
desc['total_page'] = pages
# 增加分页的URL
if pages > 0 :
pageUrls = soup.select(".TCPage__middle > a")
page_url = []
for i in range(len(pageUrls)-1) :
tag = pageUrls[i+1]
page_url.append(tag['href'])
desc['page_url'] = page_url
return json.dumps(desc,ensure_ascii=False) # 解析网页内容
def parseHTML(self):
soup = BeautifulSoup(self.__text, 'html.parser')
list_li = soup.select('.TCSayList .TCSayList_li')
data_list = []
for i in range(len(list_li)):
item = {}
temp = list_li[i]
publish_time = temp.select('.TCSayList_li_time')[0]
int_dt = int(publish_time['data-time']) if self.__last_request_time == 0 or self.__last_request_time < int_dt :
# 发布时间
item['publish_time_long'] = publish_time['data-time']
item['publish_time_str'] = datetime.fromtimestamp(int(publish_time['data-time'])).strftime(
'%Y-%m-%d %H:%M:%S') # 数据标签
item['data-tag'] = temp['data-tag']
# 用户
author = temp.select('.TCSayList_li_author')[0]
item['author_name'] = author.string
item['author_url'] = author['href'] # 标题
if len(temp.select('.TCSayList__title a')) >0:
title = temp.select('.TCSayList__title a')[0]
item['title'] = title.string
item['link_url'] = title['href']
# 内容
item['content'] = temp.select('.TCSayList_li_content')[0]['data-short'] data_list.append(item)
return data_list
# 获取请求配置信息
def __getConfig(self):
with open(self.__config_file, "r",encoding="utf-8") as load_f:
load_dict = json.load(load_f)
return load_dict
# 设置配置项
def __setConfig(self,key,value):
self.__config_dict[key] = value
print(self.__config_dict)
with open(self.__config_file,'w',encoding="utf-8") as f:
f.write(json.dumps(self.__config_dict,ensure_ascii=False)) def getKeywords(self):
self.__keywords = input("请输入查询的关键字,多个关键字用“+”连接,默认关键字:环保+污染+投诉,使用默认关键字可直接按Enter:")
if len(self.__keywords) == 0:
self.__keywords = self.__config_dict['key_words']
else:
self.__setConfig("search_key",self.__keywords) # 获取请求的URL
def __getUrl(self):
base_url = self.__config_dict['base_url']
# 组装查询参数
url = base_url + "&key=" + self.__keywords
return url
- REST服务端(目前服务没有暴露很多,但相应服务实现都已经实现)
#!/usr/bin/env python
# -*- coding:utf-8 -*-
from flask import Flask,jsonify,abort,request
from changshuo108.shangyu.Shangyh108 import Shangyh108 app = Flask(__name__)
# 支持中文
app.config['JSON_AS_ASCII'] = False
shangyue = Shangyh108()
@app.route('/shangyu108/api/desc',methods=['GET'])
def get_desc():
return shangyue.getDesc() @app.route('/shangyu108/api/first_page',methods=['GET'])
def get_firstPage():
return jsonify({'data':shangyue.getFirstPageText('')}) @app.route('/shangyu108/api/page',methods=['POST'])
def get_article():
if not request.json or not 'url' in request.json:
abort(400)
print(request.json['url'])
return jsonify({'data':shangyue.getNextPage(request.json['url'])}) if __name__ == '__main__':
app.run(debug=True)
爬取的网站类型:
论坛类网站类型
涉及主要的第三方模块:
BeautifulSoup:解析、遍历页面
urllib:处理URL请求
Flask:简易的WEB框架
介绍:
本次主要使用urllib获取网页数据,然后通过BeautifulSoup进行页面解析,返回json结构的数据。
功能点:
urllib根据URL通过GET方式获取网页内容;
通过JSON文件配置
解析页面结构,返回JSON结构的数据
提供REST服务进行调用
特点:
1、提供数据描述服务,总页面,每页条数,总条数;
2、增量请求数据,只获取当前时间和上次请求时间之间的数据;
3、控制请求时间间隔,防治IP被封杀
4、分页数据请求
5、修改请求关键字,并记录上次的请求关键字
主要代码结构:
- 公共请求端封装
#!/usr/bin/env python# -*- coding:utf-8 -*-from urllib import requestfrom urllib.parse import quoteimport stringimport requests# 静态页面基类class StaticBase():# 获取网页内容 使用的requests 库实现def __getHTMLText(self,url,code="utf-8"):try:r = requests.get(url)r.raise_for_status()r.encoding = codereturn r.textexcept:return ""# get方式请求数据 通过urllib记性实现GET请求def getUrl(self,url,code='utf-8'):url = quote(url,safe=string.printable)req = request.Request(url)req.add_header('User-Agent','Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/45.0.2454.101 Safari/537.36')with request.urlopen(req) as f:print('Status:',f.status,f.reason)return f.read().decode(code)#s = StaticBase()#print(s.getUrl('http://www.baidu.com/','utf-8'))
- 配置文件
{"host": "http://shangyu.108sq.cn","base_url": "http://shangyu.108sq.cn/shuo/search?sertype=4","key_words": "污染","page_size": 30,"search_key": "","last_request_time": 1562142204.149511,"request_gap": 60}
- 解析服务
#!/usr/bin/env python# -*- coding:utf-8 -*-from bs4 import BeautifulSoupfrom datetime import datetimeimport jsonfrom common.staticBase import StaticBaseclass Shangyh108(StaticBase):__config_file = "config.json" #配置文件__text = "" #解析的网页内容__config_dict = {} #配置集合__url = "" #请求的URL__keywords = "" #关键字__last_request_time = 0 #上次请求时间# 构造函数def __init__(self):self.__config_dict = self.__getConfig()# 查询关键字if len(self.__config_dict['search_key']) >0 :self.__keywords = self.__config_dict['search_key']else:self.__keywords = self.__config_dict['key_words']self.__url = self.__getUrl()# 获取网页内容def getText(self):print(self.__url)self.__text = StaticBase.getUrl(self,self.__url)# 获取第一页内容def getFirstPageText(self,url=''):if self.checkRquestTime():if len(url)==0 :url = self.__getUrl()self.__text = StaticBase.getUrl(self,url)return self.parseHTML()else:print("操作频繁请稍后重新")# 获取下一页def getNextPage(self,url):url = self.__config_dict['host']+urlprint(url)self.__text = StaticBase.getUrl(self,url)return self.parseHTML()# 为防止请求对服务器造成太大压力,控制请求的时间间隔,最少为5分钟def checkRquestTime(self):request_gap = self.__config_dict['request_gap']last_request_time = self.__config_dict['last_request_time']dt_now = datetime.now().timestamp()self.__last_request_time = last_request_time # 记录上次请求的时间,为了获取阶段性的数据if last_request_time == 0: #第一次请求,直接通过last_request_time = dt_nowelif last_request_time+request_gap > dt_now:print("请求过度频繁,请稍后重试")return Falseelse:last_request_time = dt_nowself.__setConfig('last_request_time',last_request_time)return True# 获取网页描述信息def getDesc(self):self.getText()soup = BeautifulSoup(self.__text,'html.parser')obj_count = soup.select('.count')[0]count_str = str(obj_count.string).replace("(共","").replace("条)","")count = int(count_str)pageSize = int(self.__config_dict['page_size'])host = self.__config_dict['host']if count % pageSize == 0 :pages = count//pageSizeelse:pages = count // pageSize + 1desc = {}desc['host'] = hostdesc['count'] = countdesc['page_size'] = pageSizedesc['total_page'] = pages# 增加分页的URLif pages > 0 :pageUrls = soup.select(".TCPage__middle > a")page_url = []for i in range(len(pageUrls)-1) :tag = pageUrls[i+1]page_url.append(tag['href'])desc['page_url'] = page_urlreturn json.dumps(desc,ensure_ascii=False)# 解析网页内容def parseHTML(self):soup = BeautifulSoup(self.__text, 'html.parser')list_li = soup.select('.TCSayList .TCSayList_li')data_list = []for i in range(len(list_li)):item = {}temp = list_li[i]publish_time = temp.select('.TCSayList_li_time')[0]int_dt = int(publish_time['data-time'])if self.__last_request_time == 0 or self.__last_request_time < int_dt :# 发布时间item['publish_time_long'] = publish_time['data-time']item['publish_time_str'] = datetime.fromtimestamp(int(publish_time['data-time'])).strftime('%Y-%m-%d %H:%M:%S')# 数据标签item['data-tag'] = temp['data-tag']# 用户author = temp.select('.TCSayList_li_author')[0]item['author_name'] = author.stringitem['author_url'] = author['href']# 标题if len(temp.select('.TCSayList__title a')) >0:title = temp.select('.TCSayList__title a')[0]item['title'] = title.stringitem['link_url'] = title['href']# 内容item['content'] = temp.select('.TCSayList_li_content')[0]['data-short']data_list.append(item)return data_list# 获取请求配置信息def __getConfig(self):with open(self.__config_file, "r",encoding="utf-8") as load_f:load_dict = json.load(load_f)return load_dict# 设置配置项def __setConfig(self,key,value):self.__config_dict[key] = valueprint(self.__config_dict)with open(self.__config_file,'w',encoding="utf-8") as f:f.write(json.dumps(self.__config_dict,ensure_ascii=False))def getKeywords(self):self.__keywords = input("请输入查询的关键字,多个关键字用“+”连接,默认关键字:环保+污染+投诉,使用默认关键字可直接按Enter:")if len(self.__keywords) == 0:self.__keywords = self.__config_dict['key_words']else:self.__setConfig("search_key",self.__keywords)# 获取请求的URLdef __getUrl(self):base_url = self.__config_dict['base_url']# 组装查询参数url = base_url + "&key=" + self.__keywordsreturn url
- REST服务端(目前服务没有暴露很多,但相应服务实现都已经实现)
#!/usr/bin/env python# -*- coding:utf-8 -*-from flask import Flask,jsonify,abort,requestfrom changshuo108.shangyu.Shangyh108 import Shangyh108app = Flask(__name__)# 支持中文app.config['JSON_AS_ASCII'] = Falseshangyue = Shangyh108()@app.route('/shangyu108/api/desc',methods=['GET'])def get_desc():return shangyue.getDesc()@app.route('/shangyu108/api/first_page',methods=['GET'])def get_firstPage():return jsonify({'data':shangyue.getFirstPageText('')})@app.route('/shangyu108/api/page',methods=['POST'])def get_article():if not request.json or not 'url' in request.json:abort(400)print(request.json['url'])return jsonify({'data':shangyue.getNextPage(request.json['url'])})if __name__ == '__main__':app.run(debug=True)
公众号链接:https://mp.weixin.qq.com/s?__biz=Mzg4MzI3MjM4NQ==&tempkey=MTAxNl9KVjVnVCtVNlo4RUpIZmZXbzBfSVR4dHU4YUhhX3hPNGMxVXdMd1JaQ21OZExlNnNybmJzaVhCT2hkZk85RzZKbzRlYWxFcEk1U2g5bmN4cWJ1QlNmNEdmWlBvVWxGTER2NDM5NjdWa1VIaDVWZlFyUF9EVmtYM0lmNnplRzRjanZsWEo4RUlESTg2YlFkVjBxdDFXbzEwR1UtVVpSd2V5U0R1YUVnfn4%3D&chksm=4f48bebe783f37a8622096cf8cb7d5dfbc5d913e3f1694ea601f51eec5aadddee66271739639#rd
Python爬虫实践~BeautifulSoup+urllib+Flask实现静态网页的爬取的更多相关文章
- Python爬虫入门教程第七讲: 蜂鸟网图片爬取之二
蜂鸟网图片--简介 今天玩点新鲜的,使用一个新库 aiohttp ,利用它提高咱爬虫的爬取速度. 安装模块常规套路 pip install aiohttp 运行之后等待,安装完毕,想要深造,那么官方文 ...
- Python爬虫入门教程 15-100 石家庄政民互动数据爬取
石家庄政民互动数据爬取-写在前面 今天,咱抓取一个网站,这个网站呢,涉及的内容就是 网友留言和回复,特别简单,但是网站是gov的.网址为 http://www.sjz.gov.cn/col/14900 ...
- Python爬虫基础之Urllib
一.随时随地爬取一个网页下来 怎么爬取网页?对网站开发了解的都知道,浏览器访问Url向服务器发送请求,服务器响应浏览器请求并返回一堆HTML信息,其中包括html标签,css样式,js脚本等.Chro ...
- 使用Python爬虫库BeautifulSoup遍历文档树并对标签进行操作详解(新手必学)
为大家介绍下Python爬虫库BeautifulSoup遍历文档树并对标签进行操作的详细方法与函数下面就是使用Python爬虫库BeautifulSoup对文档树进行遍历并对标签进行操作的实例,都是最 ...
- Java分布式爬虫Nutch教程——导入Nutch工程,执行完整爬取
Java分布式爬虫Nutch教程--导入Nutch工程,执行完整爬取 by briefcopy · Published 2016年4月25日 · Updated 2016年12月11日 在使用本教程之 ...
- Python爬虫实践 -- 记录我的第二只爬虫
1.爬虫基本原理 我们爬取中国电影最受欢迎的影片<红海行动>的相关信息.其实,爬虫获取网页信息和人工获取信息,原理基本是一致的. 人工操作步骤: 1. 获取电影信息的页面 2. 定位(找到 ...
- Python爬虫——用BeautifulSoup、python-docx爬取廖雪峰大大的教程为word文档
版权声明:本文为博主原创文章,欢迎转载,并请注明出处.联系方式:460356155@qq.com 廖雪峰大大贡献的教程写的不错,写了个爬虫把教程保存为word文件,供大家方便下载学习:http://p ...
- Python爬虫之BeautifulSoup的用法
之前看静觅博客,关于BeautifulSoup的用法不太熟练,所以趁机在网上搜索相关的视频,其中一个讲的还是挺清楚的:python爬虫小白入门之BeautifulSoup库,有空做了一下笔记: 一.爬 ...
- python爬虫实践
模拟登陆与文件下载 爬取http://moodle.tipdm.com上面的视频并下载 模拟登陆 由于泰迪杯网站问题,测试之后发现无法用正常的账号密码登陆,这里会使用访客账号登陆. 我们先打开泰迪杯的 ...
随机推荐
- 如何通过 subprocess 持续获取输出内容
在实际应用中会用到subprocess的Popen方法执行一些命令,而我们需要通过执行这个命令的来获取输出进行一些信息记录或者分析使用,如果是很快就可以执行完的那还好,有时需要持续跟踪内容的输出,比如 ...
- 使用hutool进行二维码制作
2.在IDEA中使用代码块生成二维码
- 2019-2020-1 20199305《Linux内核原理与分析》第八周作业
可执行程序的工作原理 (一)ELF目标文件 (1)什么是ELF? 这里先提一个常见的名词"目标文件",是指编译器生成的文件.ELF(Executable and Linkable ...
- [CodeForces - 1272D] Remove One Element 【线性dp】
[CodeForces - 1272D] Remove One Element [线性dp] 标签:题解 codeforces题解 dp 线性dp 题目描述 Time limit 2000 ms Me ...
- docker面试题和解答(一)
什么Docker Docker是一个容器化平台,它以容器的形式将您的应用程序及其所有依赖项打包在一起,以确保您的应用程序在任何环境中无缝运行. Docker与虚拟机有何不同 Docker不是虚拟化方法 ...
- 2019年全国高校计算机能力挑战赛初赛C语言解答
http://www.ncccu.org.cn 2019年全国高校计算机能力挑战赛分设大数据算法赛,人工智能算法赛,Office高级应用赛,程序设计赛4大赛项 C语言初赛解答 1:编程1 16.现有一 ...
- QT使用QPainter加水印
QT使用QPainter加水印 加水印的代码 //为QPixmap添加水印 void MainWindow::addMask(QPixmap& pm, const QString& t ...
- console的各种输出格式
console.log('%c',CSS样式)输出css样式 console.log('%s',字符串) 字符串格式化 %d%i 整数格式化: console.log('%o',节点) 可扩展的dom ...
- OpenCV:图像的普通二值化
首先我们来看看图像二值化的过程,opencv一共有好几种不同的二值化算法可以使用,一般来说图像的像素,亮度等条件如果超过了某个或者低于了某个阈值,就会恒等于某个值,可以用于某些物体轮廓的监测: 导包: ...
- Android 中的style和Theme的使用
说明 style和theme的定义是为了改变原有系统设定的默认窗体.字体.背景色.格式等风格而使用.其本质就是系统属性的集合.本篇主要介绍android中的style和theme的具体用法. styl ...