python自动化之web抓取
'''
从web抓取数据:
webbrowser:是python自带的,打开浏览器获取指定页面.
requests:从因特网上下载文件和网页.
Beautiful Soup:解析HTML,即网页编写的格式.
selenium:启动并控制一个Web浏览器.selenium能够填写表单,并模拟鼠标在这个浏览器中点击
'''
import webbrowser
webbrowser.open('http://inventwithpython.com/')
'''
利用requests模块从Web下载文件:
requests模块让你很容易从Web下载文件,不必担心一些复杂的问题,
诸如网络错误、连接问题和数据压缩
'''
###################################用requests.get()下载一个网页####################################
import requests
res=requests.get('http://www.gutenberg.org/cache/epub/1112/pg1112.txt')
type(res)
res.status_code=requests.codes.ok
'''
检查Response对象的status_code属性,等于requests.codes.ok时表示一切都好
(HTTP协议中"OK"的状态码是200,404状态码表示"没找到")
'''
len(res.text)
print(res.text[:250])
###################################检查下载错误####################################
import requests
res=requests.get('http://inventwithpython.com/page_that_does_not_exist')
res.raise_for_status() ####下载成功了,就什么也不做;下载出错,就抛出异常
##############################################
import requests
res=requests.get('http://inventwithpython.com/page_that_does_not_exist')
try:
res.raise_for_status()
except Exception as exc:
print('There was a problem:%s'%(exc))
###################################将下载的文件保存到硬盘####################################
import requests
res=requests.get('http://www.gutenberg.org/cache/epub/1112/pg1112.txt')
res.raise_for_status()
playFile=open(r'C:\Users\Administrator\Desktop\RomeoAndJuliet.txt','wb')
for chunk in res.iter_content(100000): ###每次循环迭代的字节数
print len(chunk)
playFile.write(chunk)
playFile.close()
###################################学习HTML的资源####################################
'''
HTML初学者指南:
http://htmldog.com/guides/html/beginner/
http://www.codecademy.com/tracks/web/
https://developer.mozilla.org/en-US/learn/html
'''
######HTML快速复习
<strong>Hello</strong>world! #####<strong>表明:标签包围的文本将使用粗体
Al''s free <a href="http://inventwithpython.com">Python books</a>
###################################查看网页的HTML源代码####################################
'''
在网页任意位置点击右键:选择View Source或View page source
查看该页的HTML文本
'''
'''
在Windows版的Chrome和IE中,开发者工具已经安装了,可以按下F12,出现;
再次按下F12,可以让开发者工具消失
'''
'''
不要用正则表达式来解析HTML:
尝试用正则表达式来捕捉HTML格式的变化,非常繁琐,容易出错
专门用于解析HTML的模块,诸如Beautiful Soup,将更不容易导致缺陷
http://stackoverflow.com/a/1732454/1893164/
'''
###################################使用开发者工具来寻找HTML元素####################################
'''
http://weather.gov/
邮政编码为94105
通过开发者工具,找到对应代码
'''
###################################从HTML创建一个BeautifulSoup对象####################################
import requests,bs4
res=requests.get('http://forecast.weather.gov/MapClick.php?lat=37.78833550000007&lon=-122.39552170000002#.WXazEmP9c_0')
res.raise_for_status()
noStarchSoup=bs4.BeautifulSoup(res.text)
type(noStarchSoup)
playFile=open(r'C:\Users\Administrator\Desktop\rest.html','wb')
for chunk in res.iter_content(100000): ###每次循环迭代的字节数
print len(chunk)
playFile.write(chunk)
playFile.close()
###################################用select()方法寻找元素####################################
'''
传递给select()方法的选择器 将匹配...
soup.select('div') 所有名为<div>的元素
soup.select('#author') 带有id属性为author的元素
soup.select('.notice') 所有使用CSS class属性名为notice的元素
soup.select('div span') 所有在<div>元素之内的<span>元素
soup.select('div > span') 所有直接在<div>元素之内的<span>元素,中间没有其他元素
soup.select('input[name]') 所有名为<input>,并有一个name属性,其值无所谓的元素
soup.select('input[type="button"]') 所有名为<input>,并有一个type属性,其值为button的元素
'''
<div id="current_conditions-summary" class="pull-left">
<p class="myforecast-current">NA</p>
<p class="myforecast-current-lrg">60°F</p>
<p class="myforecast-current-sm">16°C</p>
</div>
<div id="comic">
<img src="//imgs.xkcd.com/comics/barrel_cropped_(1).jpg" title="Don't we all." alt="Barrel - Part 1" />
</div>
import bs4
exampleFile=open(r'C:\Users\Administrator\Desktop\rest.html')
exampleSoup=bs4.BeautifulSoup(exampleFile.read())
elems=exampleSoup.select('#current_conditions-summary')
type(elems)
len(elems)
type(elems[0])
elems[0].getText()
>>> elems[0].getText()
u'\nNA\n59\xb0F\n15\xb0C\n'
>>> str(elems[0])
'<div class="pull-left" id="current_conditions-summary">\n<p class="myforecast-current">NA</p>\n<p class="myforecast-current-lrg">59\xc2\xb0F</p>\n<p class="myforecast-current-sm">15\xc2\xb0C</p>\n</div>'
>>> >>> elems[0].attrs
{'id': 'current_conditions-summary', 'class': ['pull-left']}
#########################
pElems=exampleSoup.select('p')
>>> pElems[1]
<p>Your local forecast office is</p>
>>> pElems[2]
<p>
Severe thunderstorms will be possible over portions of the upper Midwest and Great Lakes Tuesday, Wednesday, and Thursday. Damaging winds, large hail, and heavy rainfall possible. Over the Desert Southwest and portions of the Rockies, Monsoonal moisture will lead to locally heavy rainfall and the threat for flash flooding into midweek.
<a href="http://www.wpc.ncep.noaa.gov/discussions/hpcdiscussions.php?disc=pmdspd" target="_blank">Read More ></a>
</p>
>>> pElems[1].getText()
u'Your local forecast office is'
###################################通过元素的属性获取数据####################################
import bs4
soup=bs4.BeautifulSoup(open(r'C:\Users\Administrator\Desktop\rest.html'))
spanElem=soup.select('span')[0]
>>> str(spanElem)
'<span class="sr-only">Toggle navigation</span>'
>>> spanElem.get('class')
['sr-only']
>>> spanElem.attrs
{'class': ['sr-only']}
>>> spanElem.get('id')==None
True
###################################用selenium模块控制浏览器####################################
###################################启动selenium控制的浏览器####################################
#####下载:http://getfirefox.com/
from selenium import webdriver
browser=webdriver.Firefox()
type(browser)
browser.get('http://inventwithpython.com')
###################################maplt.py####################################
import webbrowser,sys,pyperclip
if len(sys.argv)>1:
###Get address from command line:
address=' '.join(sys.argv[1:])
else:
address=pyperclip.paste()
webbrowser.open('https://www.google.com/maps/place/'+address)
python自动化之web抓取的更多相关文章
- 如何用 Python 实现 Web 抓取?
[编者按]本文作者为 Blog Bowl 联合创始人 Shaumik Daityari,主要介绍 Web 抓取技术的基本实现原理和方法.文章系国内 ITOM 管理平台 OneAPM 编译呈现,以下为正 ...
- python Web抓取(一)[没写完]
需要的模块: python web抓取通过: webbrowser:是python自带的,打开浏览器获取指定页面 requests:从因特网上下载文件和网页 Beautiful Soup:解析HTML ...
- python&php数据抓取、爬虫分析与中介,有网址案例
近期在做一个网络爬虫程序.后台使用python不定时去抓取数据.前台使用php进行展示 站点是:http://se.dianfenxiang.com
- Web UI 自动化单个xpath抓取插件详解
原文地址http://blog.csdn.net/kaka1121/article/details/51878346 单个控件获取 需求: 右键到某个控件上,就能获取到至多三个可以唯一定位该元素的相对 ...
- python 手机App数据抓取实战二抖音用户的抓取
前言 什么?你问我国庆七天假期干了什么?说出来你可能不信,我爬取了cxk坤坤的抖音粉丝数据,我也不知道我为什么这么无聊. 本文主要记录如何使用appium自动化工具实现抖音App模拟滑动,然后分析数据 ...
- 基于python编写的天气抓取程序
以前一直使用中国天气网的天气预报组件都挺好,可是自从他们升级组件后数据加载变得非常不稳定,因为JS的阻塞常常导致网站打开速度很慢.为了解决这个问题决定现学现用python编写一个抓取程序,每天定时抓取 ...
- python爬虫 前程无忧网页抓取
Python爬虫视频教程零基础小白到scrapy爬虫高手-轻松入门 https://item.taobao.com/item.htm?spm=a1z38n.10677092.0.0.482434a6E ...
- python的post请求抓取数据
python通过get方式,post方式发送http请求和接收http响应-urllib urllib2 python通过get方式,post方式发送http请求和接收http响应-- import ...
- Python爬虫之一 PySpider 抓取淘宝MM的个人信息和图片
ySpider 是一个非常方便并且功能强大的爬虫框架,支持多线程爬取.JS动态解析,提供了可操作界面.出错重试.定时爬取等等的功能,使用非常人性化. 本篇通过做一个PySpider 项目,来理解 Py ...
随机推荐
- c语言数字图像处理(九):边缘检测
背景知识 边缘像素是图像中灰度突变的像素,而边缘是连接边缘像素的集合.边缘检测是设计用来检测边缘像素的局部图像处理方法. 孤立点检测 使用<https://www.cnblogs.com/Gol ...
- 基于神念TGAM的脑波小车(4)
我使用的是HC05和BT06俩个蓝牙模块 1.[AT模式]HC05蓝牙模块的PIO11接VCC,上电后即进入HC05AT指令模式,对于BT06蓝牙直接上电进入AT模式,用USBT06转TTL模块连接到 ...
- python3 通过qq邮箱定时发送邮件
下面的代码为了每天定时发送监控邮件,监控什么呢?监控当天redis队列中是否有没有消费的数据,和当天mysql中新增的数据量 # -*- coding:utf-8 -*- from common.re ...
- lastlog命令详解
基础命令学习目录首页 原文链接:https://www.cnblogs.com/qiyebao/p/4331078.html last 显示所有用户最后登录信息(会显示系统用户) last -u 50 ...
- Kubernetes探索学习003--关于Kubernetes的Pod
关于Pod 关于Pod我们要慢慢去体会去接受它去使用它,尤其是运维人员这块需要从逻辑上形成认识,首先理解Pod是Kubernetes项目的原子调度单位.为什么是Pod而不是单个DockerContai ...
- js备忘录2
JavaScript 的类型分为两类,分别是原始类型和对象类型 其中原始类型中只有数字.字符串和布尔型,和java中的有些不一样 null和undefined不是基本数据类型中的某一种 对象是prop ...
- 设计与实现分离——面向接口编程(OO博客第三弹)
如果说继承是面向对象程序设计中承前启后的特质,那么接口就是海纳百川的体现了.它们都是对数据和行为的抽象,都是对性质和关系的概括.只不过前者是纵向角度,而后者是横向角度罢了.今天呢,我想从设计+语法角度 ...
- 软工1816 · Beta冲刺(4/7)
团队信息 队名:爸爸饿了 组长博客:here 作业博客:here 组员情况 组员1(组长):王彬 过去两天完成了哪些任务 推进安卓端各个接口的开发,安卓端各个接口已经基本完成 完成食堂各个平面图的绘制 ...
- 使用Git进行代码管理心得------------个人练习
一.在github.com上的操作 今天我们实践课程学习了用Git进行代码版本,使用github进行代码托管,我和队友在官网上创建了自己的Organization,将Auto CS fork到了小 ...
- mysql非安装包安装教程
设置mysql的环境变量 本人设置安装的路径是:E:\WebApplication\webMySQL\mysql-5.7.13-winx64 我的电脑 ---> 高级系统配置 ---> 环 ...