#coding=utf-8

 # 参考文章:
# 1. python实现简单爬虫功能
# http://www.cnblogs.com/fnng/p/3576154.html
# 2. Python 2.7 时间和日期模块常用的例子
# http://www.linuxidc.com/Linux/2015-06/118458.htm
# 3. Python open读写文件实现脚本
# http://www.jb51.net/article/15709.htm
# 4. python re 模块 findall 函数用法简述
# http://blog.csdn.net/cashey1991/article/details/8875213
# 5. [Python]编码声明:是coding:utf-8还是coding=urf-8呢
# http://www.xuebuyuan.com/975181.html # urllib模块提供的上层接口,使我们可以像读取本地文件一样读取www和ftp上的数据。
import urllib
import re
import datetime,time # 定义了一个getHtml()函数
def getHtml( url ):
# urllib.urlopen()方法用于打开一个URL地址。
page = urllib.urlopen( url )
# read()方法用于读取URL上的数据
html = page.read() # 返回整个网页数据
return html # 创建getImg()函数
def getImg( html ):
# ()表示所要提取的字符串,即: 图片名.jpg
reg = r'src="(.+?\.jpg)" pic_ext'
# 可以把正则表达式编译成一个正则表达式对象.
imgre = re.compile( reg )
# 读取html 中包含 imgre(正则表达式)的数据。
# 当给出的正则表达式中带有一个括号时,列表的元素为字符串,
# 此字符串的内容与括号中的正则表达式相对应(不是整个正则表达式的匹配内容)。
imglist = re.findall( imgre, html ) print "Start downloading the first five pictures" # 通过一个for循环对获取的图片连接进行遍历,为了使图片的文件名看上去更规范,
# 对其进行重命名,命名规则通过x变量加1。保存的位置默认为程序的存放目录。
x = 0
for imgurl in imglist:
# 用到了urllib.urlretrieve()方法,直接将远程数据下载到本地
urllib.urlretrieve( imgurl, '%s.jpg' % x )
# python不支持类似 x++ 或 x-- 这样的前置/后置自增/自减运算符,因此只能用 += 或 -= 这种。
x += 1 # 这里面的图片可能比较多,我们测试前五张就差不多了
if x == 5 :
break print "the first five pictures download completed." return imglist # 向getHtml()函数传递一个网址,并把整个页面下载下来,保存在html变量中
html = getHtml( "http://www.zengjf.org" ) # 合成要保存的文件名,由年月日、时分秒组成,以只写方式打开文件
saveFile = open( time.strftime( "%Y%m%d%H%M%S" ) + ".html", 'w' )
saveFile.write( html ) # 将html中的内容写入文件
saveFile.close( ) # 关闭文件 html = getHtml( "http://tieba.baidu.com/p/2460150866" )
print getImg( html )

Python 简单网页爬虫学习的更多相关文章

  1. Python简单网页爬虫——极客学院视频自动下载

    http://blog.csdn.net/supercooly/article/details/51003921

  2. (一)python 简单网页爬虫

    1.基于window环境,使用的工具是 Anaconda 下载地址 https://www.anaconda.com/download/ 2.所使用的包 BeautifulSoup,用来解析html代 ...

  3. Python编写网页爬虫爬取oj上的代码信息

    OJ升级,代码可能会丢失. 所以要事先备份. 一開始傻傻的复制粘贴, 后来实在不能忍, 得益于大潇的启示和聪神的原始代码, 网页爬虫走起! 已经有段时间没看Python, 这次网页爬虫的原始代码是 p ...

  4. Python简单网络爬虫实战—下载论文名称,作者信息(下)

    在Python简单网络爬虫实战—下载论文名称,作者信息(上)中,学会了get到网页内容以及在谷歌浏览器找到了需要提取的内容的数据结构,接下来记录我是如何找到所有author和title的 1.从sou ...

  5. Selenium + PhantomJS + python 简单实现爬虫的功能

    Selenium 一.简介 selenium是一个用于Web应用自动化程序测试的工具,测试直接运行在浏览器中,就像真正的用户在操作一样 selenium2支持通过驱动真实浏览器(FirfoxDrive ...

  6. Python动态网页爬虫-----动态网页真实地址破解原理

    参考链接:Python动态网页爬虫-----动态网页真实地址破解原理

  7. 亲身试用python简单小爬虫

    前几天基友分享了一个贴吧网页,有很多漂亮的图片,想到前段时间学习的python简单爬虫,刚好可以实践一下. 以下是网上很容易搜到的一种方法: #coding=utf-8 import urllib i ...

  8. nodeJS实现简单网页爬虫功能

    前面的话 本文将使用nodeJS实现一个简单的网页爬虫功能 网页源码 使用http.get()方法获取网页源码,以hao123网站的头条页面为例 http://tuijian.hao123.com/h ...

  9. python简单页面爬虫入门 BeautifulSoup实现

    本文可快速搭建爬虫环境,并实现简单页面解析 1.安装 python 下载地址:https://www.python.org/downloads/ 选择对应版本,常用版本有2.7.3.4 安装后,将安装 ...

随机推荐

  1. 3.1 Templates -- Handlerbars Basics(Handlerbars基础知识)

    一.简介 Ember.js使用Handlerbars模板库来强化应用程序的用户界面.它就像普通的HTML,但也给你嵌入表达式去改变现实的内容. Ember使用Handlerbars并且用许多新特性去扩 ...

  2. python webdriver 显示等待-自动登录126邮箱,添加联系人

    脚本内容:#encoding=utf-8#author-夏晓旭from selenium import webdriverimport timefrom selenium.webdriver.supp ...

  3. 查看本地mysql安装路径

  4. HDU4112

    对于n*m*k的方块,用手掰成1**1的那么搜需要的步骤是固定的,为n*m*k-,如果用刀切,因为可以把多块叠在一起切,所以对于长度为n的,将他切成0,所需要的步骤数位k 对于n*m*k的方块,用手掰 ...

  5. SQL学习笔记四(补充-2)之MySQL多表查询

    阅读目录 一 介绍 二 多表连接查询 三 符合条件连接查询 四 子查询 五 综合练习 一 介绍 本节主题 多表连接查询 复合条件连接查询 子查询 准备表 #建表 create table depart ...

  6. ELF文件分析

    (1)文件ELF.c (2)编译: gcc -c ELF_1.c -o ELF_1.o (3)显示文件类型: (4)查看大小: (5)转换为16进制 (6)显示各段信息 (7)分析

  7. 课堂练习——Hash 20162305

    课堂练习--Hash 20162305 课堂练习要求 利用除留余数法为下列关键字集合的存储设计hash函数,并画出分别用开放寻址法和拉链法解决冲突得到的空间存储状态(散列因子取0.75) 关键字集合: ...

  8. 【图片下载-代码】java下载网络图片资源例子

    /** * @Description 下载网络图片资源 * @param imageUrl 图片地址 * @return String 下载后的地址 * @author SUNBIN * @date ...

  9. Python学习札记(二十八) 模块1

    参考:模块 NOTE 1.模块:一个.py文件称为一个模块. 2.代码模块化的意义:a.提升程序的可维护性 b.不用重复造轮子 3.避免模块冲突,解决方法:引入了按目录来组织模块的方法,称为包(Pac ...

  10. 使用git一张图就够了

    现在,版本控制工具中,git逐步成为主流.他的分散式的特性是它超越svn渐渐独霸江湖.如果你还不熟悉git,通过本文,你有个最基本最实用的理解:如果你熟悉git,温故而知新,为你加深对git的理解 g ...