正则表达式简单介绍

正则表达式(regular expression)描述了一种字符串匹配的模式,可以用来检查一个串是否含有某种子串、将匹配的子串做替换或者从某个串中取出符合某个条件的子串等。

字符 [a-z]

数字 [0-9] 或 \b

* 匹配前面的子表达式零次或多次

+ 匹配前面的子表达式一次或多次

? 匹配前面的子表达式零次或一次

一个简单爬虫例子

import re
import urllib.request url = "http://mall.csdn.net/coin" savePath = "G:/QQData/" def getHtml(url):
page = urllib.request.urlopen(url)
html = page.read().decode('utf-8')
return html def getImg(html):
reg = r'http:\/\/img.bss.csdn.net\/[0-9]+\.jpg'
imgre = re.compile(reg)
imglist = re.findall(imgre, html)
return imglist; def saveImg(url):
conn = urllib.request.urlopen(url)
file = open(savePath + getFileName(url), 'wb')
file.write(conn.read())
file.close()
return def getFileName(url):
reg = r'[a-z0-9]+\.jpg'
matchObj = re.search(reg, url)
if matchObj:
return matchObj.group()
return html = str(getHtml(url));
imgurls = getImg(html); for imgurl in imgurls:
print(imgurl)
saveImg(imgurl)

这个例子很简单,里面的正则简单的到没有,是爬取CSDN U币商城的图片,很容易看懂。

可以自定义正则和Url的爬虫

from tkinter import *
import re
import urllib.request savePath = "G:/QQData/" class ControllPanel(Frame): default_url = "http://www.xingyongshe.com/man/ddfeijibei"
default_regix = r'<img src="(.+)&amp;w=228&amp;q=90&amp;type=jpg'
__status_label = None #私有属性
url_input = None
regix_input = None def __init__(self, master):
Frame.__init__(self, master, width=360, height=260)
self.master = master
self.pack()
self.add_urlarea()
self.add_regixarea()
self.add_buttonarea()
self.add_statusbar() def add_urlarea(self):
urlAreaFrame = Frame(self)
urlAreaFrame.pack(pady=20)
label = Label(urlAreaFrame, text="网址:")
label.pack(side=LEFT)
self.url_input = Entry(urlAreaFrame, width=40)
self.url_input.insert(0, ControllPanel.default_url)
self.url_input.pack(side=RIGHT) def add_regixarea(self):
regixAreaFrame = Frame(self)
regixAreaFrame.pack()
label = Label(regixAreaFrame, text="正则:")
label.pack(side=LEFT)
self.regix_input = Entry(regixAreaFrame, width=40)
self.regix_input.insert(0, self.default_regix) #注意这里的访问方式和上面方式不同
self.regix_input.pack(side=RIGHT) def add_buttonarea(self):
buttonAreaFrame = Frame(self)
buttonAreaFrame.pack(pady=40)
verify_button = Button(buttonAreaFrame, text="验证正则", command=self.verifyRegix)
verify_button.pack(padx=50, side=LEFT)
start_button = Button(buttonAreaFrame, text="开始爬取", command=self.startRun)
start_button.pack(padx=50, side=RIGHT) def verifyRegix(self):
if self.url_input == None or self.regix_input == None:
return
url = self.url_input.get()
regix = self.regix_input.get()
runfunction = RunFunction(url, regix)
imgurls = runfunction.verifyRegix()
if len(imgurls) > 0:
self.setStatus("有%d张图片可以爬取", len(imgurls))
for imgurl in imgurls:
print(imgurl)
return imgurls def startRun(self):
imgurls = self.verifyRegix()
runfunction = RunFunction(None, None)
size = runfunction.runTask(imgurls)
self.setStatus("爬取了%d张图片放在了" + savePath, size) def add_statusbar(self):
statusBarFrame = Frame(self.master)
statusBarFrame.pack(side=BOTTOM, fill=X)
self.status_label = Label(statusBarFrame, bd=1, relief=SUNKEN, anchor=W)
self.status_label.pack(fill=X) def setStatus(self, format, *args):
if self.status_label == None:
return
self.status_label.config(text=format % args)
self.status_label.update_idletasks()
return def clearStatus(self):
self.status_label.config(text="")
self.status_label.update_idletasks() class RunFunction: def __init__(self, url, regix):
self.url = url
self.regix = regix def getHtml(self, url):
page = urllib.request.urlopen(url)
html = page.read().decode('utf-8')
return html def getImg(self, html, reg):
imgre = re.compile(reg)
imglist = re.findall(imgre, html)
return imglist; def saveImg(self, url):
conn = urllib.request.urlopen(url)
file = open(savePath + self.getFileName(url), 'wb')
file.write(conn.read())
file.close()
return def getFileName(self, url):
reg = r'[a-z0-9]+\.jpg'
matchObj = re.search(reg, url)
if matchObj:
return matchObj.group()
return def verifyRegix(self):
html = str(self.getHtml(self.url))
imgurls = self.getImg(html, self.regix)
return imgurls def runTask(self):
imgurls = self.verifyRegix(self.url, self.regix)
for imgurl in imgurls:
self.saveImg(imgurl)
return len(imgurls) def runTask(self, imgurls):
for imgurl in imgurls:
self.saveImg(imgurl)
return len(imgurls) root = Tk()
root.title("爬虫管理窗口") #让窗口居中显示
scnWidth, scnHeight = root.maxsize()
tmpcnf = '%dx%d+%d+%d'%(308, 101, (scnWidth-308)/2, (scnHeight-101)/2)
root.geometry(tmpcnf) root.maxsize(600, 300)
root.minsize(360, 220)
#root.resizable(False, False) #让窗口尺寸不变 controllPanel = ControllPanel(root)
controllPanel.setStatus("等待爬取……") root.mainloop()
root.destroy()

Stage6--Python简单爬虫的更多相关文章

  1. Python简单爬虫入门三

    我们继续研究BeautifulSoup分类打印输出 Python简单爬虫入门一 Python简单爬虫入门二 前两部主要讲述我们如何用BeautifulSoup怎去抓取网页信息以及获取相应的图片标题等信 ...

  2. Python简单爬虫入门二

    接着上一次爬虫我们继续研究BeautifulSoup Python简单爬虫入门一 上一次我们爬虫我们已经成功的爬下了网页的源代码,那么这一次我们将继续来写怎么抓去具体想要的元素 首先回顾以下我们Bea ...

  3. GJM : Python简单爬虫入门(二) [转载]

    感谢您的阅读.喜欢的.有用的就请大哥大嫂们高抬贵手"推荐一下"吧!你的精神支持是博主强大的写作动力以及转载收藏动力.欢迎转载! 版权声明:本文原创发表于 [请点击连接前往] ,未经 ...

  4. Python 简单爬虫案例

    Python 简单爬虫案例 import requests url = "https://www.sogou.com/web" # 封装参数 wd = input('enter a ...

  5. Python简单爬虫记录

    为了避免自己忘了Python的爬虫相关知识和流程,下面简单的记录一下爬虫的基本要求和编程问题!! 简单了解了一下,爬虫的方法很多,我简单的使用了已经做好的库requests来获取网页信息和Beauti ...

  6. Python简单爬虫

    爬虫简介 自动抓取互联网信息的程序 从一个词条的URL访问到所有相关词条的URL,并提取出有价值的数据 价值:互联网的数据为我所用 简单爬虫架构 实现爬虫,需要从以下几个方面考虑 爬虫调度端:启动爬虫 ...

  7. python简单爬虫一

    简单的说,爬虫的意思就是根据url访问请求,然后对返回的数据进行提取,获取对自己有用的信息.然后我们可以将这些有用的信息保存到数据库或者保存到文件中.如果我们手工一个一个访问提取非常慢,所以我们需要编 ...

  8. python 简单爬虫(beatifulsoup)

    ---恢复内容开始--- python爬虫学习从0开始 第一次学习了python语法,迫不及待的来开始python的项目.首先接触了爬虫,是一个简单爬虫.个人感觉python非常简洁,相比起java或 ...

  9. python 简单爬虫diy

    简单爬虫直接diy, 复杂的用scrapy import urllib2 import re from bs4 import BeautifulSoap req = urllib2.Request(u ...

  10. Python简单爬虫入门一

    为大家介绍一个简单的爬虫工具BeautifulSoup BeautifulSoup拥有强大的解析网页及查找元素的功能本次测试环境为python3.4(由于python2.7编码格式问题) 此工具在搜索 ...

随机推荐

  1. gym 102082G BZOJ4240 贪心+树状数组

    4240: 有趣的家庭菜园 Time Limit: 10 Sec  Memory Limit: 256 MBSubmit: 756  Solved: 349[Submit][Status][Discu ...

  2. AC自动机例题

    P3808 [模板]AC自动机(简单版) [题目描述] 给定n个模式串和1个文本串,求有多少个模式串在文本串里出现过. #include<bits/stdc++.h> using name ...

  3. LeetCode153.寻找旋转排序数组中的最小值

    153.寻找旋转排序数组中的最小值 描述 假设按照升序排序的数组在预先未知的某个点上进行了旋转. ( 例如,数组 [0,1,2,4,5,6,7] 可能变为 [4,5,6,7,0,1,2] ). 请找出 ...

  4. Kibana6.x.x源码分析--如何使用kibana的savedObjectType对象

    默认kibana插件定义了三种保存实体对象[savedObjectType],如下图所示: 要使用只需要在自己定义的app的uses属性中添加上:savedObjectTypes  即可,如下图所示: ...

  5. POJ_3090 Visible Lattice Points 【欧拉函数 + 递推】

    一.题目 A lattice point (x, y) in the first quadrant (x and y are integers greater than or equal to 0), ...

  6. Java正则表达式-捕获组

    private Set<String> getCodes(String s) { Set<String> resultSet = new HashSet<>(); ...

  7. 完美的js继承

    //完美的js继承 少了类管理器 Object.extend=function(){ var fnTest = /\b_super\b/; //继承父类 var _super = arguments[ ...

  8. hash & heap - 20181023 - 20181026

    129. Rehashing /** * Definition for ListNode * public class ListNode { * int val; * ListNode next; * ...

  9. 深度优先搜索(DFS) — 20180926

    用DFS的场景: 找出所有方案:DFS找出所有方案总数 可能是动态规划 DFS时间复杂度:答案个数*构造每个答案的时间 动态规划时间复杂度:状态个数*计算每个状态时间 二叉树时间复杂度:节点数*处理每 ...

  10. 如何在新导入的python项目中一次性生成依赖的第三方库

    requirements.txt用来记录项目所有的依赖包和版本号,只需要一个简单的pip命令就能完成. pip freeze >requirements.txt 然后就可以用 pip insta ...