正则表达式简单介绍

正则表达式(regular expression)描述了一种字符串匹配的模式,可以用来检查一个串是否含有某种子串、将匹配的子串做替换或者从某个串中取出符合某个条件的子串等。

字符 [a-z]

数字 [0-9] 或 \b

* 匹配前面的子表达式零次或多次

+ 匹配前面的子表达式一次或多次

? 匹配前面的子表达式零次或一次

一个简单爬虫例子

import re
import urllib.request url = "http://mall.csdn.net/coin" savePath = "G:/QQData/" def getHtml(url):
page = urllib.request.urlopen(url)
html = page.read().decode('utf-8')
return html def getImg(html):
reg = r'http:\/\/img.bss.csdn.net\/[0-9]+\.jpg'
imgre = re.compile(reg)
imglist = re.findall(imgre, html)
return imglist; def saveImg(url):
conn = urllib.request.urlopen(url)
file = open(savePath + getFileName(url), 'wb')
file.write(conn.read())
file.close()
return def getFileName(url):
reg = r'[a-z0-9]+\.jpg'
matchObj = re.search(reg, url)
if matchObj:
return matchObj.group()
return html = str(getHtml(url));
imgurls = getImg(html); for imgurl in imgurls:
print(imgurl)
saveImg(imgurl)

这个例子很简单,里面的正则简单的到没有,是爬取CSDN U币商城的图片,很容易看懂。

可以自定义正则和Url的爬虫

from tkinter import *
import re
import urllib.request savePath = "G:/QQData/" class ControllPanel(Frame): default_url = "http://www.xingyongshe.com/man/ddfeijibei"
default_regix = r'<img src="(.+)&amp;w=228&amp;q=90&amp;type=jpg'
__status_label = None #私有属性
url_input = None
regix_input = None def __init__(self, master):
Frame.__init__(self, master, width=360, height=260)
self.master = master
self.pack()
self.add_urlarea()
self.add_regixarea()
self.add_buttonarea()
self.add_statusbar() def add_urlarea(self):
urlAreaFrame = Frame(self)
urlAreaFrame.pack(pady=20)
label = Label(urlAreaFrame, text="网址:")
label.pack(side=LEFT)
self.url_input = Entry(urlAreaFrame, width=40)
self.url_input.insert(0, ControllPanel.default_url)
self.url_input.pack(side=RIGHT) def add_regixarea(self):
regixAreaFrame = Frame(self)
regixAreaFrame.pack()
label = Label(regixAreaFrame, text="正则:")
label.pack(side=LEFT)
self.regix_input = Entry(regixAreaFrame, width=40)
self.regix_input.insert(0, self.default_regix) #注意这里的访问方式和上面方式不同
self.regix_input.pack(side=RIGHT) def add_buttonarea(self):
buttonAreaFrame = Frame(self)
buttonAreaFrame.pack(pady=40)
verify_button = Button(buttonAreaFrame, text="验证正则", command=self.verifyRegix)
verify_button.pack(padx=50, side=LEFT)
start_button = Button(buttonAreaFrame, text="开始爬取", command=self.startRun)
start_button.pack(padx=50, side=RIGHT) def verifyRegix(self):
if self.url_input == None or self.regix_input == None:
return
url = self.url_input.get()
regix = self.regix_input.get()
runfunction = RunFunction(url, regix)
imgurls = runfunction.verifyRegix()
if len(imgurls) > 0:
self.setStatus("有%d张图片可以爬取", len(imgurls))
for imgurl in imgurls:
print(imgurl)
return imgurls def startRun(self):
imgurls = self.verifyRegix()
runfunction = RunFunction(None, None)
size = runfunction.runTask(imgurls)
self.setStatus("爬取了%d张图片放在了" + savePath, size) def add_statusbar(self):
statusBarFrame = Frame(self.master)
statusBarFrame.pack(side=BOTTOM, fill=X)
self.status_label = Label(statusBarFrame, bd=1, relief=SUNKEN, anchor=W)
self.status_label.pack(fill=X) def setStatus(self, format, *args):
if self.status_label == None:
return
self.status_label.config(text=format % args)
self.status_label.update_idletasks()
return def clearStatus(self):
self.status_label.config(text="")
self.status_label.update_idletasks() class RunFunction: def __init__(self, url, regix):
self.url = url
self.regix = regix def getHtml(self, url):
page = urllib.request.urlopen(url)
html = page.read().decode('utf-8')
return html def getImg(self, html, reg):
imgre = re.compile(reg)
imglist = re.findall(imgre, html)
return imglist; def saveImg(self, url):
conn = urllib.request.urlopen(url)
file = open(savePath + self.getFileName(url), 'wb')
file.write(conn.read())
file.close()
return def getFileName(self, url):
reg = r'[a-z0-9]+\.jpg'
matchObj = re.search(reg, url)
if matchObj:
return matchObj.group()
return def verifyRegix(self):
html = str(self.getHtml(self.url))
imgurls = self.getImg(html, self.regix)
return imgurls def runTask(self):
imgurls = self.verifyRegix(self.url, self.regix)
for imgurl in imgurls:
self.saveImg(imgurl)
return len(imgurls) def runTask(self, imgurls):
for imgurl in imgurls:
self.saveImg(imgurl)
return len(imgurls) root = Tk()
root.title("爬虫管理窗口") #让窗口居中显示
scnWidth, scnHeight = root.maxsize()
tmpcnf = '%dx%d+%d+%d'%(308, 101, (scnWidth-308)/2, (scnHeight-101)/2)
root.geometry(tmpcnf) root.maxsize(600, 300)
root.minsize(360, 220)
#root.resizable(False, False) #让窗口尺寸不变 controllPanel = ControllPanel(root)
controllPanel.setStatus("等待爬取……") root.mainloop()
root.destroy()

Stage6--Python简单爬虫的更多相关文章

  1. Python简单爬虫入门三

    我们继续研究BeautifulSoup分类打印输出 Python简单爬虫入门一 Python简单爬虫入门二 前两部主要讲述我们如何用BeautifulSoup怎去抓取网页信息以及获取相应的图片标题等信 ...

  2. Python简单爬虫入门二

    接着上一次爬虫我们继续研究BeautifulSoup Python简单爬虫入门一 上一次我们爬虫我们已经成功的爬下了网页的源代码,那么这一次我们将继续来写怎么抓去具体想要的元素 首先回顾以下我们Bea ...

  3. GJM : Python简单爬虫入门(二) [转载]

    感谢您的阅读.喜欢的.有用的就请大哥大嫂们高抬贵手"推荐一下"吧!你的精神支持是博主强大的写作动力以及转载收藏动力.欢迎转载! 版权声明:本文原创发表于 [请点击连接前往] ,未经 ...

  4. Python 简单爬虫案例

    Python 简单爬虫案例 import requests url = "https://www.sogou.com/web" # 封装参数 wd = input('enter a ...

  5. Python简单爬虫记录

    为了避免自己忘了Python的爬虫相关知识和流程,下面简单的记录一下爬虫的基本要求和编程问题!! 简单了解了一下,爬虫的方法很多,我简单的使用了已经做好的库requests来获取网页信息和Beauti ...

  6. Python简单爬虫

    爬虫简介 自动抓取互联网信息的程序 从一个词条的URL访问到所有相关词条的URL,并提取出有价值的数据 价值:互联网的数据为我所用 简单爬虫架构 实现爬虫,需要从以下几个方面考虑 爬虫调度端:启动爬虫 ...

  7. python简单爬虫一

    简单的说,爬虫的意思就是根据url访问请求,然后对返回的数据进行提取,获取对自己有用的信息.然后我们可以将这些有用的信息保存到数据库或者保存到文件中.如果我们手工一个一个访问提取非常慢,所以我们需要编 ...

  8. python 简单爬虫(beatifulsoup)

    ---恢复内容开始--- python爬虫学习从0开始 第一次学习了python语法,迫不及待的来开始python的项目.首先接触了爬虫,是一个简单爬虫.个人感觉python非常简洁,相比起java或 ...

  9. python 简单爬虫diy

    简单爬虫直接diy, 复杂的用scrapy import urllib2 import re from bs4 import BeautifulSoap req = urllib2.Request(u ...

  10. Python简单爬虫入门一

    为大家介绍一个简单的爬虫工具BeautifulSoup BeautifulSoup拥有强大的解析网页及查找元素的功能本次测试环境为python3.4(由于python2.7编码格式问题) 此工具在搜索 ...

随机推荐

  1. Centos7服务器启动jar包项目最佳方式

    jar后台运行:nohup java -jar xx.jar >/dev/null & 此处的“>/dev/null”作用是将终端输出信息输出到空洞中,即不保存输出信息,若要查看输 ...

  2. JS 函数的基本练习

    // - 求3个数中的最大值 function biJiao3(x, y, z) { return x > y ? (x > z ? x : z) : (y > z ? y : z) ...

  3. 为什么有些网站PING不通但又能访问.

    一PING它,出现request timed out,发关4个送数据包,返回0个.丢失率100%,明明不通但为什么又能够访问? 应该是该网站禁用了ICMP回应或者开启了ICMP过滤.如果设置了ICMP ...

  4. caffe/proto/caffe.pb.h: No such file or director

    caffe编译过程中遇到的为问题: fatal error: caffe/proto/caffe.pb.h: No such file or directory 解决方法: 用protoc从caffe ...

  5. day--41 mysql索引原理与慢查询优化

    mysql索引原理与慢查询优化一:什么是索引 01:索引的出现是为了提高查询数据的效率 02:索引在mysql叫做“键” 或则“key“(primary key,uniquekey ,还有一个inde ...

  6. abp框架angular 项目docker 手动部署到Linux环境中

    1.https://aspnetboilerplate.com/Templates 2.后端项目发布,在publish中abp默认已经存在DockerFile文件 3.修改后端文件中的DockerFi ...

  7. React应用程序设计过程中如何区分模块到底是state还是props?

    根据官方文档,满足以下任意条件的模块,就不是State,原文如下: 1.Is it passed in from a parent via props? If so, it probably isn’ ...

  8. sharepoint_study_2

    描述:向SharePoint中批量添加用户 解决:原文地址:http://bbs.winos.cn/thread-89236-1-1.html 一般情况下,要想登录SharePoint server ...

  9. 1076 Wifi密码 (15 分)

    下面是微博上流传的一张照片:“各位亲爱的同学们,鉴于大家有时需要使用 wifi,又怕耽误亲们的学习,现将 wifi 密码设置为下列数学题答案:A-1:B-2:C-3:D-4:请同学们自己作答,每两日一 ...

  10. [转] Chrome - 浏览器跨域访问设置(附:新老版本两种设置方法)

    [From] http://www.hangge.com/blog/cache/detail_1703.html 在进行前后分离的 webapp 开发,或者 H5 移动 App 开发时,我们会使用 P ...