前言

  使用python进行网页数据的爬取现在已经很常见了,而对天气数据的爬取更是入门级的新手操作,很多人学习爬虫都从天气开始,本文便是介绍了从中国天气网爬取天气数据,能够实现输入想要查询的城市,返回该城市未来一周的天气情况,保存为csv文件,并对数据图形化展示分析。最后附完整代码。

  1、使用模块

  Python3。主要使用到了csv、sys、urllib.request和BeautifulSoup4模块,其中csv模块是为了对csv文件的处理,urllib.request可以构造http请求,BeautifulSoup4可以解析页面信息。在使用这些模块之前,如果不存在需要进行安装,可打开cmd使用pip进行安装。当然,还需要一个城市名与城市code对应的文件,便于我们输入城市后找到对应的code进行相应的天气信息提取。这里点击文件内容cityinfo,可以查看到整理好的城市代码,将该页面内容复制保存为.py文件,然后放入同路径导入即可。

  2、根据输入城市从城市代码文件提取到相应的城市代码

  cityname = input("请输入你想要查询天气的城市:")

  if cityname in cityinfo.city:

  citycode = cityinfo.city[cityname]

  else:

  sys.exit()

  3、制作请求头,得到请求的应答内容,即页面信息

  url = 'http://www.weather.com.cn/weather/' + citycode + '.shtml'

  header = ("User-Agent","Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/76.0.3809.132 Safari/537.36") # 设置头部信息

  http_handler = urllib.request.HTTPHandler()

  opener = urllib.request.build_opener(http_handler) # 修改头部信息

  opener.addheaders = [header]

  request = urllib.request.Request(url) # 制作请求

  response = opener.open(request) # 得到应答包

  html = response.read() # 读取应答包

  html = html.decode('utf-8') # 设置编码,否则会乱码

  其中,设置头部信息header是为了防止某些网站设置了反爬虫,在chrome浏览器下,头部信息header可在浏览器中按f12然后点击network,找到一个请求流,点击请求流后可以看到相应的头部信息。

  4、根据返回的页面进行数据的筛选

  final = [] # 初始化一个列表保存数据

  bs = BeautifulSoup(html, "html.parser") # 创建BeautifulSoup对象

  body = bs.body # 获取body部分数据

  data = body.find('div', {'id': '7d'})

  ul = data.find('ul')

  li = ul.find_all('li')

  #所有的标签获取内容都根据在页面的所在位置进行筛选,如图所示,我们要查找的未来七天的天气情况都包含在id为7d的div标签中,七天的天气又在这个div的ul中,该div仅有一个ul,因此可使用find方法,每一天的天气又在该ul的li中,且有多个li,则必须使用find_all()方法,找到所有的li,不能使用find方法。

  5、爬取数据

  i = 0 # 控制爬取的天数

  lows = [] # 保存低温

  highs = [] # 保存高温

  for day in li: # 便利找到的每一个li

  if i < 7:

  temp = []

  date = day.find('h1').string # 得到日期

  temp.append(date)

  inf = day.find_all('p') # 获取天气,遍历li下面的p标签 有多个p需要使用find_all 而不是find

  temp.append(inf[0].string)

  temlow = inf[1].find('i').string # 最低气温

  if inf[1].find('span') is None: # 天气预报有时候可能没有最高气温,需要做一个判断

  temhigh = None

  temperate = temlow

  else:

  temhigh = inf[1].find('span').string # 最高气温

  temhigh = temhigh.replace('℃', '')

  temperate = temhigh + '/' + temlow

  temp.append(temperate)

  final.append(temp)

  i = i + 1

  这里是从每个li中获取到每天的天气情况,控制在7天,通过li标签下面的各数据位置进行相应的提取,要注意提取标签的数量,如果在当前标签下有多个相同的提取标签,要使用find_all()而不是find,然后用[n]进行相应的数据提取

  在提取温度时要注意一个问题,中国天气网一般都会显示最高气温和最低气温,但有时候只会显示一个温度,无最高气温,这时就要做一个判断,否则脚本会出错。然后将天气拼接成一个字符串,和其他数据一起放入final 列表中

  6、写入csv文件

  with open('weather.csv', 'a', errors='ignore', newline='') as f:

  f_csv = csv.writer(f)

  f_csv.writerows([cityname])

  f_csv.writerows(final)

  最后看到的csv文件中存储的天气数据如下图所示:

  7、使用pygal绘图,使用该模块前需先安装pip install pygal,然后导入import pygal

  bar = pygal.Line() # 创建折线图

  bar.add('最低气温', lows) #添加两线的数据序列

  bar.add('最高气温', highs) #注意lows和highs是int型的列表

  bar.x_labels = daytimes

  bar.x_labels_major = daytimes[::30]

  bar.x_label_rotation = 45

  bar.title = cityname+'未来七天气温走向图' #设置图形标题

  bar.x_title = '日期' #x轴标题

  bar.y_title = '气温(摄氏度)' # y轴标题

  bar.legend_at_bottom = True

  bar.show_x_guides = False

  bar.show_y_guides = True

  bar.render_to_file('temperate1.svg') # 将图像保存为SVG文件,可通过浏览器查看

  最终生成的图形如下图所示,直观的显示了天气情况:

  8、完整代码

  import csv

  import sys

  import urllib.request

  from bs4 import BeautifulSoup # 解析页面模块

  import pygal

  import cityinfo

  cityname = input("请输入你想要查询天气的城市:")

  if cityname in cityinfo.city:

  citycode = cityinfo.city[cityname]

  else:

  sys.exit()

  url = 'http://www.weather.com.cn/weather/' + citycode + '.shtml'

  header = ("User-Agent","Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/76.0.3809.132 Safari/537.36") # 设置头部信息

  http_handler = urllib.request.HTTPHandler()

  opener = urllib.request.build_opener(http_handler) # 修改头部信息

  opener.addheaders = [header]

  request = urllib.request.Request(url) # 制作请求

  response = opener.open(request) # 得到应答包

  html = response.read() # 读取应答包

  html = html.decode('utf-8') # 设置编码,否则会乱码

  # 根据得到的页面信息进行初步筛选过滤

  final = [] # 初始化一个列表保存数据

  bs = BeautifulSoup(html, "html.parser") # 创建BeautifulSoup对象

  body = bs.body

  data = body.find('div', {'id': '7d'})

  print(type(data))

  ul = data.find('ul')

  li = ul.find_all('li')

  # 爬取自己需要的数据

  i = 0 # 控制爬取的天数

  lows = [] # 保存低温

  highs = [] # 保存高温

  daytimes = [] # 保存日期

  weathers = [] # 保存天气

  for day in li: # 便利找到的每一个li

  if i < 7:无锡妇科医院哪家好 http://www.ytsgfk120.com/

  temp = [] # 临时存放每天的数据

  date = day.find('h1').string # 得到日期

  #print(date)

  temp.append(date)

  daytimes.append(date)

  inf = day.find_all('p') # 遍历li下面的p标签 有多个p需要使用find_all 而不是find

  #print(inf[0].string) # 提取第一个p标签的值,即天气

  temp.append(inf[0].string)

  weathers.append(inf[0].string)

  temlow = inf[1].find('i').string # 最低气温

  if inf[1].find('span') is None: # 天气预报可能没有最高气温

  temhigh = None

  temperate = temlow

  else:

  temhigh = inf[1].find('span').string # 最高气温

  temhigh = temhigh.replace('℃', '')

  temperate = temhigh + '/' + temlow

  # temp.append(temhigh)

  # temp.append(temlow)

  lowStr = ""

  lowStr = lowStr.join(temlow.string)

  lows.append(int(lowStr[:-1])) # 以上三行将低温NavigableString转成int类型并存入低温列表

  if temhigh is None:

  highs.append(int(lowStr[:-1]))

  else:

  highStr = ""

  highStr = highStr.join(temhigh)

  highs.append(int(highStr)) # 以上三行将高温NavigableString转成int类型并存入高温列表

  temp.append(temperate)

  final.append(temp)

  i = i + 1

  # 将最终的获取的天气写入csv文件

  with open('weather.csv', 'a', errors='ignore', newline='') as f:

  f_csv = csv.writer(f)

  f_csv.writerows([cityname])

  f_csv.writerows(final)

  # 绘图

  bar = pygal.Line() # 创建折线图

  bar.add('最低气温', lows)

  bar.add('最高气温', highs)

  bar.x_labels = daytimes

  bar.x_labels_major = daytimes[::30]

  # bar.show_minor_x_labels = False # 不显示X轴最小刻度

  bar.x_label_rotation = 45

  bar.title = cityname+'未来七天气温走向图'

  bar.x_title = '日期'

  bar.y_title = '气温(摄氏度)'

  bar.legend_at_bottom = True

  bar.show_x_guides = False

  bar.show_y_guides = True

  bar.render_to_file('temperate.svg')

python爬虫爬取天气数据并图形化显示的更多相关文章

  1. python爬虫——爬取网页数据和解析数据

    1.网络爬虫的基本概念 网络爬虫(又称网络蜘蛛,机器人),就是模拟客户端发送网络请求,接收请求响应,一种按照一定的规则,自动地抓取互联网信息的程序.只要浏览器能够做的事情,原则上,爬虫都能够做到. 2 ...

  2. 使用python爬虫爬取股票数据

    前言: 编写一个爬虫脚本,用于爬取东方财富网的上海股票代码,并通过爬取百度股票的单个股票数据,将所有上海股票数据爬取下来并保存到本地文件中 系统环境: 64位win10系统,64位python3.6, ...

  3. python爬虫----爬取阿里数据银行websocket接口

    业务需求:爬取阿里品牌数据银行的自定义模块==>>>人群透视==>>>查看报告==>>数据 发现:数据通过websocket接口传递,此类型接口的详细理 ...

  4. 吴裕雄--天生自然PYTHON爬虫:安装配置MongoDBy和爬取天气数据并清洗保存到MongoDB中

    1.下载MongoDB 官网下载:https://www.mongodb.com/download-center#community 上面这张图选择第二个按钮 上面这张图直接Next 把bin路径添加 ...

  5. 毕设之Python爬取天气数据及可视化分析

    写在前面的一些P话:(https://jq.qq.com/?_wv=1027&k=RFkfeU8j) 天气预报我们每天都会关注,我们可以根据未来的天气增减衣物.安排出行,每天的气温.风速风向. ...

  6. Python脚本:爬取天气数据并发邮件给心爱的Ta

    第一部分:爬取天气数据 # 在函数调用 get_weather(url = 'https://www.tianqi.com/foshan') 的 url中更改城市,foshan为佛山市 1 impor ...

  7. 使用Python爬虫爬取网络美女图片

    代码地址如下:http://www.demodashi.com/demo/13500.html 准备工作 安装python3.6 略 安装requests库(用于请求静态页面) pip install ...

  8. Python爬虫爬取全书网小说,程序源码+程序详细分析

    Python爬虫爬取全书网小说教程 第一步:打开谷歌浏览器,搜索全书网,然后再点击你想下载的小说,进入图一页面后点击F12选择Network,如果没有内容按F5刷新一下 点击Network之后出现如下 ...

  9. python爬虫—爬取英文名以及正则表达式的介绍

    python爬虫—爬取英文名以及正则表达式的介绍 爬取英文名: 一.  爬虫模块详细设计 (1)整体思路 对于本次爬取英文名数据的爬虫实现,我的思路是先将A-Z所有英文名的连接爬取出来,保存在一个cs ...

随机推荐

  1. hdu6222——佩尔方程&&大数__int128

    题意 给定一个整数 $N$($1 \leq N \leq 10^{30}$),求最小的整数 $t$,要求 $t \geq N$,使得边长为 $t-1, t, t+1$ 的三角形面积为整数. 分析 根据 ...

  2. selenium 滚动条的滚动

    如果是一个页面自带的滚动条(即网页的的滚动条) 可直接用js js="window.scrollTo(x,y);"     x(横向),y(纵向)代表的就是位置  ,具体移动到哪里 ...

  3. 【Tomcat】系统找不到指定的路径

    确认一下端口防火墙是否开放 没开放就开一下:firewall-cmd --zone=public --add-port=9080/tcp --permanent 然后重启: firewall-cmd ...

  4. Pandas | 20 级联

    Pandas提供了各种工具(功能),可以轻松地将Series,DataFrame和Panel对象组合在一起. pd.concat(objs,axis=0,join='outer',join_axes= ...

  5. 将HashMap转换为List

    背景 ​ SpringBoot中,使用@RquestBody注解 hashMap 接收多个参数的json字符串数据,包括一个数组和一个int值.数组中为一个个的对象组成. 问题 ​ 使用 map.ge ...

  6. 使用plv8+hashids生成短链接服务

    有写过一个集成npm plv8 以及shortid生成短链接id服务,实际上我们可以集成触发器自动生成url对应的短链接地址,hashids也是一个不错的选择. 以下是一个别人写的一个博客实现可以参考 ...

  7. iptables 表和链的对应关系

    filter表 主要用于对数据包进行过滤,根据具体的规则决定是否放行该数据包(如DROP.ACCEPT.REJECT.LOG).filter 表对应的内核模块为iptable_filter,包含三个规 ...

  8. python总结一

    1. python中的而标准数据类型: number(数字) string(字符串) list(列表) tuple(元祖) dic(字典) 其中数字类型有: python支持四种不同的数字类型: in ...

  9. Leetcode 5274. 停在原地的方案数

    纪念第一次正式参加,听说这次题目很水,感觉确实不是很难,一般前两题都很简单,这次,到第三题的时候,都还可以做,emm...... 实际代码记录: #include <iostream> # ...

  10. 【操作系统之四】Linux常用命令之awk

    一.概念awk是一个报告生成器,拥有强大的文本格式化能力. 数据可以来自标准输入(stdin).一个或多个文件,或其它命令的输出: 依次对每一行进行处理,然后输出: 它在命令行中使用,但更多是作为脚本 ...