参照网上的教程再做修改,抓取糗事百科段子(去除图片),详情见下面源码:

#coding=utf-8
#!/usr/bin/python
import urllib
import urllib2
import re
import thread
import time
import sys

#定义要抓取的网页
#url = 'http://www.qiushibaike.com/hot/'
#读取要抓取的网页
#globalcontent = urllib.urlopen(url).read()
#抓取段子内容
#new_inner01_h = globalcontent.find('<div class="content" <span>')
#print new_inner01_h
#设置系统编码utf-8
reload(sys)
sys.setdefaultencoding("utf-8")

#加载处理糗事百科
class Spider_Model:
"""docstring for Spider_Model"""
def __init__(self):
self.page = 1
self.pages = []
self.enable = False

#抓取该页面的所有段子,添加到列表中并且返回列表
def GetPage(self,page):
try:
myUrl = "http://m.qiushibaike.com/hot/page/" + str(page)
user_agent = 'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/50.0.2661.102 Safari/537.36'
headers = {'User-Agent':user_agent}
req = urllib2.Request(myUrl,headers = headers)
myResponse = urllib2.urlopen(req)
myPage = myResponse.read().decode('utf-8')
return myPage
#decode的作用将其他编码的字符串转换成Unicode编码

except urllib2.URLError, e:
if hasattr(e,"code"):
print u"链接糗事百科失败,错误原因",e.code
if hasattr(e,"reason"):
print u"链接糗事百科失败,错误原因",e.reason
return None

#传入某一页代码,返回本页不带图片的段子列表
def getPageItems(self,page):
myPage = self.GetPage(page)
if not myPage:
print "页面加载失败..."
return None
#正则匹配需要获取的段子
pattern = re.compile('<div.*?class="author.*?clearfix".*?>.*?<a.*?</a>.*?<a.*? title="(.*?)">.*?</a>.*?<div.*?class'+
'="content".*?>.*?<span.*?>(.*?)</span>.*?</a>(.*?)<div.*?class="stats.*?>.*?<i.*?class="number">(.*?)</i>',re.S)
# pattern = re.compile('.*?(.*?)(.*?).*?.*?(.*?).*?.*?.*?(.*?).*?.*?',re.S)
#pattern = re.compile('(.*?)(.*?).*?', re.S)
#pattern = re.compile(r'.*?<a.*?<a.*?(.*?).*?(.*?)<!.*?.*?(.*?)',re.S)
items = re.findall(pattern,myPage)

#用来存储每页的段子们
pageStroies = []
#遍历正则表达式匹配的信息
for item in items:
#判断是否包含图片
haveImg = re.search("img",item[2])

#如果不含有图片,把它加入list中
if not haveImg:
#item[0]是发布者,item[1]是内容,item[3]是点赞数

if '<br/>' in item:
new_item = re.sub(r'<br.*?>','\n',item)
pageStroies.append([new_item[0].strip(),new_item[1].strip(),new_item[3].strip()])
else:
pageStroies.append([item[0].strip(),item[1].strip(),item[3].strip()])
return pageStroies

#找出所有class="content"的div标记
#re.S是任意匹配模式,也就是.可以匹配换行符
#myItems = re.find('<div.*?class="content">(.*?)</div>',unicodePage,re.S)
#items = []
#for item in myItems:
#item[0]是div的标题
#item[1]是div的内容
#items.append([item[0].replace("\n",""),item[1].replace("\n"),""])
#items = item[0]
#return items

#加载并提取页面的内容,加入到列表中
def LoadPage(self):
#如果用户未输入quit则一直运行
#while self.enable:
if self.enable == True:
#如果当前未看的页数小于2也,则加载新一页
if len(self.pages) < 2:
#获取新一页
pageStroies = self.getPageItems(self.page)
#将该页的段子存放到全局list中
if pageStroies:
self.pages.append(pageStroies)
#获取完之后页面索引加一,表示下次读取下一页
self.page += 1
#try:
# 获取新的页面中的段子
#myPage = self.GetPage(str(self.page))
#self.page += 1
#self.pages.append(myPage)
#except:
#print '无法链接糗事百科'
#else:
#time.sleep(1)
#调用该方法,每次敲回车打印输出一个段子
def ShowPage(self,pageStroies,page):
#遍历一页的段子
for items in pageStroies:
#等待用户输入
input = raw_input()
#每次输入回车,判断是否要加载新页面
self.LoadPage()

#输入输入Q则程序结束
if input == "Q":
self.enable = False
return
print u"第%d页\n发布人:%s\t\n发布内容:%s\n赞:%s\n" %(page,items[0],items[1],items[2])

def Start(self):
print u"正在读取糗事百科,按回车见查看新段子,Q退出"
#初始化变量为True,程序正常执行
self.enable = True
#先加载一页内容
self.LoadPage()
#局部变量,控制当前读到了第几页
nowPage = 0
while self.enable:
if len(self.pages)>0:
#从全局list中获取一页的段子
pageStroies = self.pages[0]
#当前读到的页数加一
nowPage += 1
#将全局list中第一个元素删除,因为已经取出
del self.pages[0]
#输出该页的段子
self.ShowPage(pageStroies,nowPage)
'''
page = self.page

#新建一个线程在后台加载段子存储
thread.start_new_thread(self.LoadPage,())

#加载处理糗事百科
while self.enable:
#如果self的page数组中存有元素
if self.pages:
nowPage = self.pages[0]
del self.pages[0]
self.ShowPage(nowPage,page)
page += 1

print u'请按下回车键浏览今日的糗事百科:'
raw_input(' ')
'''
myModel = Spider_Model()
myModel.Start()

Python爬虫爬取糗事百科段子内容的更多相关文章

  1. Python爬虫-爬取糗事百科段子

    闲来无事,学学python爬虫. 在正式学爬虫前,简单学习了下HTML和CSS,了解了网页的基本结构后,更加快速入门. 1.获取糗事百科url http://www.qiushibaike.com/h ...

  2. python学习(十六)写爬虫爬取糗事百科段子

    原文链接:爬取糗事百科段子 利用前面学到的文件.正则表达式.urllib的知识,综合运用,爬取糗事百科的段子先用urllib库获取糗事百科热帖第一页的数据.并打开文件进行保存,正好可以熟悉一下之前学过 ...

  3. Python爬虫--抓取糗事百科段子

    今天使用python爬虫实现了自动抓取糗事百科的段子,因为糗事百科不需要登录,抓取比较简单.程序每按一次回车输出一条段子,代码参考了 http://cuiqingcai.com/990.html 但该 ...

  4. Python爬虫实战一之爬取糗事百科段子

    大家好,前面入门已经说了那么多基础知识了,下面我们做几个实战项目来挑战一下吧.那么这次为大家带来,Python爬取糗事百科的小段子的例子. 首先,糗事百科大家都听说过吧?糗友们发的搞笑的段子一抓一大把 ...

  5. 转 Python爬虫实战一之爬取糗事百科段子

    静觅 » Python爬虫实战一之爬取糗事百科段子 首先,糗事百科大家都听说过吧?糗友们发的搞笑的段子一抓一大把,这次我们尝试一下用爬虫把他们抓取下来. 友情提示 糗事百科在前一段时间进行了改版,导致 ...

  6. 8.Python爬虫实战一之爬取糗事百科段子

    大家好,前面入门已经说了那么多基础知识了,下面我们做几个实战项目来挑战一下吧.那么这次为大家带来,Python爬取糗事百科的小段子的例子. 首先,糗事百科大家都听说过吧?糗友们发的搞笑的段子一抓一大把 ...

  7. [爬虫]用python的requests模块爬取糗事百科段子

    虽然Python的标准库中 urllib2 模块已经包含了平常我们使用的大多数功能,但是它的 API 使用起来让人感觉不太好,而 Requests 自称 “HTTP for Humans”,说明使用更 ...

  8. python爬取糗事百科段子

    初步爬取糗事百科第一页段子(发布人,发布内容,好笑数和评论数) #-*-coding:utf--*- import urllib import urllib2 import re page = url ...

  9. 芝麻HTTP:Python爬虫实战之爬取糗事百科段子

    首先,糗事百科大家都听说过吧?糗友们发的搞笑的段子一抓一大把,这次我们尝试一下用爬虫把他们抓取下来. 友情提示 糗事百科在前一段时间进行了改版,导致之前的代码没法用了,会导致无法输出和CPU占用过高的 ...

随机推荐

  1. iOS typedef NS_ENUM 与 NSString

    //在头文件中声明 typedef NS_ENUM(NSUInteger, TransactionState) { TransactionOpened, TransactionPending, Tra ...

  2. 【BZOJ】3994: [SDOI2015]约数个数和

    题意: \(T(1 \le T \le 50000)\)次询问,每次给出\(n, m(1 \le n, m \le 50000)\),求\(\sum_{i=1}^{n} \sum_{j=1}^{m} ...

  3. Flume_初识

    企业架构 数据源 webserver RDBMS 数据的采集 shell.flume.sqoop job 监控和调度 hue.oozie 数据清洗及分析 mapreduce.hive 数据保存 sqo ...

  4. 目录的文件权限-X

    所有目录务必保持具有X权限(可执行权限)!!,否则无法进入该目录及子目录,且无法读取该目录及子目录下的文件或子目录

  5. 【转】ACM博弈知识汇总

    博弈知识汇总 转自:http://www.cnblogs.com/kuangbin/archive/2011/08/28/2156426.html 有一种很有意思的游戏,就是有物体若干堆,可以是火柴棍 ...

  6. Memcache教程 Memcache零基础教程

    Memcache是什么 Memcache是danga.com的一个项目,来分担数据库的压力. 它可以应对任意多个连接,使用非阻塞的网络IO.由于它的工作机制是在内存中开辟一块空间,然后建立一个Hash ...

  7. USACO翻译:USACO 2014 MARCH GOLD P2 Sabotage

    1.破坏{DOLD题2} sabotage.pas/c/cpp [问题描述] 农夫约翰的头号敌人保罗决定破坏农民约翰的挤奶设备.挤奶设备排成一行,共N(3<= N <=100000)台挤奶 ...

  8. innerHTML、innerText、outerHTML、outerText的区别

    我们在用JS/JQ 获取或设置元素内容的时候,通常是获取或设置指定元素之间的内容 <script> //JS document.getElementById('test').innerHT ...

  9. pict(Pairwise Independent Combinatorial Testing)工具使用

    PICT工具就是在微软公司内部使用的一款成对组合的命令行生成工具,现在已经对外提供,可以在互联网上下载到. 要把输入类型和其对应的参数输入到一个CSV格式(CSV: 以逗号分割的纯文本文件,不带有任何 ...

  10. PAT (Basic Level) Practise 1040 有几个PAT(DP)

    1040. 有几个PAT(25) 时间限制 120 ms 内存限制 65536 kB 代码长度限制 8000 B 判题程序 Standard 作者 CAO, Peng 字符串APPAPT中包含了两个单 ...