python自动化之web抓取
'''
从web抓取数据:
webbrowser:是python自带的,打开浏览器获取指定页面.
requests:从因特网上下载文件和网页.
Beautiful Soup:解析HTML,即网页编写的格式.
selenium:启动并控制一个Web浏览器.selenium能够填写表单,并模拟鼠标在这个浏览器中点击
'''
import webbrowser
webbrowser.open('http://inventwithpython.com/')
'''
利用requests模块从Web下载文件:
requests模块让你很容易从Web下载文件,不必担心一些复杂的问题,
诸如网络错误、连接问题和数据压缩
'''
###################################用requests.get()下载一个网页####################################
import requests
res=requests.get('http://www.gutenberg.org/cache/epub/1112/pg1112.txt')
type(res)
res.status_code=requests.codes.ok
'''
检查Response对象的status_code属性,等于requests.codes.ok时表示一切都好
(HTTP协议中"OK"的状态码是200,404状态码表示"没找到")
'''
len(res.text)
print(res.text[:250])
###################################检查下载错误####################################
import requests
res=requests.get('http://inventwithpython.com/page_that_does_not_exist')
res.raise_for_status() ####下载成功了,就什么也不做;下载出错,就抛出异常
##############################################
import requests
res=requests.get('http://inventwithpython.com/page_that_does_not_exist')
try:
res.raise_for_status()
except Exception as exc:
print('There was a problem:%s'%(exc))
###################################将下载的文件保存到硬盘####################################
import requests
res=requests.get('http://www.gutenberg.org/cache/epub/1112/pg1112.txt')
res.raise_for_status()
playFile=open(r'C:\Users\Administrator\Desktop\RomeoAndJuliet.txt','wb')
for chunk in res.iter_content(100000): ###每次循环迭代的字节数
print len(chunk)
playFile.write(chunk)
playFile.close()
###################################学习HTML的资源####################################
'''
HTML初学者指南:
http://htmldog.com/guides/html/beginner/
http://www.codecademy.com/tracks/web/
https://developer.mozilla.org/en-US/learn/html
'''
######HTML快速复习
<strong>Hello</strong>world! #####<strong>表明:标签包围的文本将使用粗体
Al''s free <a href="http://inventwithpython.com">Python books</a>
###################################查看网页的HTML源代码####################################
'''
在网页任意位置点击右键:选择View Source或View page source
查看该页的HTML文本
'''
'''
在Windows版的Chrome和IE中,开发者工具已经安装了,可以按下F12,出现;
再次按下F12,可以让开发者工具消失
'''
'''
不要用正则表达式来解析HTML:
尝试用正则表达式来捕捉HTML格式的变化,非常繁琐,容易出错
专门用于解析HTML的模块,诸如Beautiful Soup,将更不容易导致缺陷
http://stackoverflow.com/a/1732454/1893164/
'''
###################################使用开发者工具来寻找HTML元素####################################
'''
http://weather.gov/
邮政编码为94105
通过开发者工具,找到对应代码
'''
###################################从HTML创建一个BeautifulSoup对象####################################
import requests,bs4
res=requests.get('http://forecast.weather.gov/MapClick.php?lat=37.78833550000007&lon=-122.39552170000002#.WXazEmP9c_0')
res.raise_for_status()
noStarchSoup=bs4.BeautifulSoup(res.text)
type(noStarchSoup)
playFile=open(r'C:\Users\Administrator\Desktop\rest.html','wb')
for chunk in res.iter_content(100000): ###每次循环迭代的字节数
print len(chunk)
playFile.write(chunk)
playFile.close()
###################################用select()方法寻找元素####################################
'''
传递给select()方法的选择器 将匹配...
soup.select('div') 所有名为<div>的元素
soup.select('#author') 带有id属性为author的元素
soup.select('.notice') 所有使用CSS class属性名为notice的元素
soup.select('div span') 所有在<div>元素之内的<span>元素
soup.select('div > span') 所有直接在<div>元素之内的<span>元素,中间没有其他元素
soup.select('input[name]') 所有名为<input>,并有一个name属性,其值无所谓的元素
soup.select('input[type="button"]') 所有名为<input>,并有一个type属性,其值为button的元素
'''
<div id="current_conditions-summary" class="pull-left">
<p class="myforecast-current">NA</p>
<p class="myforecast-current-lrg">60°F</p>
<p class="myforecast-current-sm">16°C</p>
</div>
<div id="comic">
<img src="//imgs.xkcd.com/comics/barrel_cropped_(1).jpg" title="Don't we all." alt="Barrel - Part 1" />
</div>
import bs4
exampleFile=open(r'C:\Users\Administrator\Desktop\rest.html')
exampleSoup=bs4.BeautifulSoup(exampleFile.read())
elems=exampleSoup.select('#current_conditions-summary')
type(elems)
len(elems)
type(elems[0])
elems[0].getText()
>>> elems[0].getText()
u'\nNA\n59\xb0F\n15\xb0C\n'
>>> str(elems[0])
'<div class="pull-left" id="current_conditions-summary">\n<p class="myforecast-current">NA</p>\n<p class="myforecast-current-lrg">59\xc2\xb0F</p>\n<p class="myforecast-current-sm">15\xc2\xb0C</p>\n</div>'
>>> >>> elems[0].attrs
{'id': 'current_conditions-summary', 'class': ['pull-left']}
#########################
pElems=exampleSoup.select('p')
>>> pElems[1]
<p>Your local forecast office is</p>
>>> pElems[2]
<p>
Severe thunderstorms will be possible over portions of the upper Midwest and Great Lakes Tuesday, Wednesday, and Thursday. Damaging winds, large hail, and heavy rainfall possible. Over the Desert Southwest and portions of the Rockies, Monsoonal moisture will lead to locally heavy rainfall and the threat for flash flooding into midweek.
<a href="http://www.wpc.ncep.noaa.gov/discussions/hpcdiscussions.php?disc=pmdspd" target="_blank">Read More ></a>
</p>
>>> pElems[1].getText()
u'Your local forecast office is'
###################################通过元素的属性获取数据####################################
import bs4
soup=bs4.BeautifulSoup(open(r'C:\Users\Administrator\Desktop\rest.html'))
spanElem=soup.select('span')[0]
>>> str(spanElem)
'<span class="sr-only">Toggle navigation</span>'
>>> spanElem.get('class')
['sr-only']
>>> spanElem.attrs
{'class': ['sr-only']}
>>> spanElem.get('id')==None
True
###################################用selenium模块控制浏览器####################################
###################################启动selenium控制的浏览器####################################
#####下载:http://getfirefox.com/
from selenium import webdriver
browser=webdriver.Firefox()
type(browser)
browser.get('http://inventwithpython.com')
###################################maplt.py####################################
import webbrowser,sys,pyperclip
if len(sys.argv)>1:
###Get address from command line:
address=' '.join(sys.argv[1:])
else:
address=pyperclip.paste()
webbrowser.open('https://www.google.com/maps/place/'+address)
python自动化之web抓取的更多相关文章
- 如何用 Python 实现 Web 抓取?
[编者按]本文作者为 Blog Bowl 联合创始人 Shaumik Daityari,主要介绍 Web 抓取技术的基本实现原理和方法.文章系国内 ITOM 管理平台 OneAPM 编译呈现,以下为正 ...
- python Web抓取(一)[没写完]
需要的模块: python web抓取通过: webbrowser:是python自带的,打开浏览器获取指定页面 requests:从因特网上下载文件和网页 Beautiful Soup:解析HTML ...
- python&php数据抓取、爬虫分析与中介,有网址案例
近期在做一个网络爬虫程序.后台使用python不定时去抓取数据.前台使用php进行展示 站点是:http://se.dianfenxiang.com
- Web UI 自动化单个xpath抓取插件详解
原文地址http://blog.csdn.net/kaka1121/article/details/51878346 单个控件获取 需求: 右键到某个控件上,就能获取到至多三个可以唯一定位该元素的相对 ...
- python 手机App数据抓取实战二抖音用户的抓取
前言 什么?你问我国庆七天假期干了什么?说出来你可能不信,我爬取了cxk坤坤的抖音粉丝数据,我也不知道我为什么这么无聊. 本文主要记录如何使用appium自动化工具实现抖音App模拟滑动,然后分析数据 ...
- 基于python编写的天气抓取程序
以前一直使用中国天气网的天气预报组件都挺好,可是自从他们升级组件后数据加载变得非常不稳定,因为JS的阻塞常常导致网站打开速度很慢.为了解决这个问题决定现学现用python编写一个抓取程序,每天定时抓取 ...
- python爬虫 前程无忧网页抓取
Python爬虫视频教程零基础小白到scrapy爬虫高手-轻松入门 https://item.taobao.com/item.htm?spm=a1z38n.10677092.0.0.482434a6E ...
- python的post请求抓取数据
python通过get方式,post方式发送http请求和接收http响应-urllib urllib2 python通过get方式,post方式发送http请求和接收http响应-- import ...
- Python爬虫之一 PySpider 抓取淘宝MM的个人信息和图片
ySpider 是一个非常方便并且功能强大的爬虫框架,支持多线程爬取.JS动态解析,提供了可操作界面.出错重试.定时爬取等等的功能,使用非常人性化. 本篇通过做一个PySpider 项目,来理解 Py ...
随机推荐
- mysql查询操作之单表查询、多表查询、子查询
一.单表查询 单表查询的完整语法: .完整语法(语法级别关键字的排列顺序如下) select distinct 字段1,字段2,字段3,... from 库名.表名 where 约束条件 group ...
- SpringBoot日记——Thymeleaf模板引擎篇
开发通常我们都会使用模板引擎,比如:JSP.Velocity.Freemarker.Thymeleaf等等很多,那么模板引擎是干嘛用的? 模板引擎,顾名思义,是一款模板,模板中可以动态的写入一些参数, ...
- 【日常训练】Help Victoria the Wise(Codeforces 99C)
题意与分析 这题意思是这样的:在正方体的六面镶嵌给定颜色的宝石(相同颜色不区分),然后问最多有几种彼此不等价(即各种旋转过后看起来一致)的方案. 其实可以乱搞,因为范围只有720.求出全排列,然后每个 ...
- 通过XML文件实现人物之间的对话
一.建立一个XML文档,放在项目中Assert/Resources/XML文件下 XML的内容如下: <?xml version="1.0" encoding="u ...
- 《杜增强讲Unity之Tanks坦克大战》2-场景设置
2 场景设置 2.1 本节效果预览 2.2 项目目录设置 点击Project面板的Create按钮,在根目录下面新建wm文件夹 Wm文件夹用于存放我们自己生成的Prefab和脚本等其他资源, ...
- CHAPTER 8 Out of Darkness 第8章 走出黑暗
CHAPTER 8 Out of Darkness 第8章 走出黑暗 We expect scientists to be trying to discover new things, and for ...
- SparkRDD编程实战
通过spark实现点击流日志分析案例 1. 访问的pv package cn.itcast import org.apache.spark.rdd.RDD import org.apache.spar ...
- JS进阶系列之闭包
刚刚总结完作用域链,我觉得很有必要马上对闭包总结一下,因为,之前也写过自己对闭包的理解,那时候只知道,闭包就是可以访问别的函数变量的函数,就是在函数里面的函数就叫做闭包,可是并没有深入探究,为什么,可 ...
- C++ 函数 引用
一.引用的概念 引用就是某一变量(目标)的一个别名,对引用的操作与对变量直接操作完全一样.引用的声明方法: 类型标识符 &引用名 = 目标变量名: 为一个变量起一个别名.假如有一个变量a,想给 ...
- 第九次psp例行报告
本周psp 本周进度条 代码累积折线图 博文字数累积折线图 饼状图