这里利用2-gram模型来提取一篇英文演讲的初略的主题句子,这里是英文演讲的的链接:http://pythonscraping.com/files/inaugurationSpeech.txt

n-gram模型是指n个连续的单词组成的序列

以下贴出代码(基于python2.7),详情参考《python网络数据采集》

#-*- coding:utf-8 -*-
from urllib2 import urlopen
import re
import string
import operator #单词清洗
def isCommon(ngram):
ngrams=ngram.split(' ')
#清洗以下没有意义的单词
commonWords=['the', 'be', 'and', 'of', 'a', 'in', 'to', 'have', 'it', 'i', 'for', 'you', 'he',
'with', 'on', 'do', 'say', 'this', 'they', 'is', 'an', 'at', 'but', 'we', 'his',
'from', 'that', 'not', 'by', 'she', 'or', 'what', 'go', 'their', 'can', 'who',
'get', 'if', 'would', 'her', 'all', 'my', 'make', 'about', 'know', 'will', 'as',
'up', 'one', 'time', 'has', 'been', 'there', 'year', 'so', 'think', 'when', 'which',
'them', 'some', 'me', 'people', 'take', 'out', 'into', 'just', 'see', 'him', 'your',
'come', 'could', 'now', 'than', 'like', 'other', 'how', 'then', 'its', 'our', 'two',
'more', 'these', 'want', 'way', 'look', 'first', 'also', 'new', 'because', 'day', 'use',
'no', 'man', 'find', 'here', 'thing', 'give', 'many', 'well']
#判断2-gram中是否存在要清洗的单词
for word in ngrams:
if word.lower() in commonWords:
return False
return True #数据清洗
def cleanInput(input):
#装换多个\n和空格为单个空格
input=re.sub('\n+',' ',input)
input=re.sub('\[[0-9]*\]','',input)
input=re.sub(' +',' ',input)
input=bytes(input.decode('utf-8'))
input=input.decode('ascii','ignore')
cleanInput=[]
input=input.split(' ')
for item in input:
#string.punctuation 去除所有符号:!"#$%&'()*+,-./:;<=>?@[\]^_`{|}~
item=item.strip(string.punctuation)
if len(item)>1 or (item.lower()=='a' or item.lower()=='i'):
cleanInput.append(item)
return cleanInput #input为输入的整个字符串,n表示以几个字符作为参照,即n-gram
def ngrams(input,n):
input=cleanInput(input)
#声明一个数组
output={}
for i in range(len(input)-n-1):
ngramTemp=' '.join(input[i:i+n])
if isCommon(ngramTemp):
if ngramTemp not in output:
output[ngramTemp]=0
output[ngramTemp]+=1
return output html=urlopen('http://pythonscraping.com/files/inaugurationSpeech.txt').read().decode('utf-8')
content=str(html)
ngrams=ngrams(content,2) #key=operator.itemgetter(0) 表示以字典中的key(字符首字母)为前提排序
#key=operator.itemgetter(1) 表示以字典中的value(数字)为前提排序
#reverse=True 表示降序输出
sortedNGrams=sorted(ngrams.items(),key=operator.itemgetter(1),reverse=True)
#输出有意义的2-gram的单词,以及它们出现的数据
print sortedNGrams #获取上面的的2-gram单词
keywords=[]
for i in range(0,len(sortedNGrams)):
word=sortedNGrams[i]
#除去概率小于2的词组
if int(word[1])>2:
keywords.append(word[0]) #定义一个集合存取文章的所有句子
sentences=set()
#定义一个main_sentences来存储结果
main_sentences=set()
i=content.split('.')
for j in i:
sentences.add(j) for keyword in keywords:
for sentence in sentences:
#获取第一个存在该词组的句子
b=sentence.find(keyword)
if b!=-1:
#除去句子里的\n和多余空格
sentence=re.sub(" +"," ",sentence)
sentence=re.sub("\n+","",sentence)
main_sentences.add(sentence)
break for i in main_sentences:
print i

获取的2-gram的词组为(出现次数大于2):

[u'United States', u'General Government', u'executive department', u'legislative body', u'Mr Jefferson', u'Chief Magistrate', u'called upon', u'same causes', u'whole country', u'Government should']

输出的句子有点多,这里就不贴出来了,这只是初级处理这篇演讲。

自然语言处理(英文演讲)_2-gram的更多相关文章

  1. YouTube排名第一的励志英文演讲《Dream(梦想)》

    I don’t know what that dream is that you have, I don't care how disappointing it might have been as ...

  2. 柳青(Jean)英文演讲集合

    1.Didi Chuxing's Jean Liu on The Future of Cities  https://www.youtube.com/watch?v=G9uPGoN0dvQ 2.Did ...

  3. 《三体》刘慈欣英文演讲:说好的星辰大海你却只给了我Facebook

    美国当地时间2018日11月8日,著名科幻作家刘慈欣被授予2018年度克拉克想象力贡献社会奖(Clarke Award for Imagination in Service to Society),表 ...

  4. 【转载】Deep Learning(深度学习)学习笔记整理

    http://blog.csdn.net/zouxy09/article/details/8775360 一.概述 Artificial Intelligence,也就是人工智能,就像长生不老和星际漫 ...

  5. Deep Learning(深度学习)学习笔记整理系列之(一)

    Deep Learning(深度学习)学习笔记整理系列 zouxy09@qq.com http://blog.csdn.net/zouxy09 作者:Zouxy version 1.0  2013-0 ...

  6. Deep Learning速成教程

          引言         深度学习,即Deep Learning,是一种学习算法(Learning algorithm),亦是人工智能领域的一个重要分支.从快速发展到实际应用,短短几年时间里, ...

  7. Deep Learning(深度学习)学习笔记整理系列之(一)(转)

    Deep Learning(深度学习)学习笔记整理系列 zouxy09@qq.com http://blog.csdn.net/zouxy09 作者:Zouxy version 1.0  2013-0 ...

  8. Deep Learning(深度学习)学习笔记整理系列 一

    声明: 1)该Deep Learning的学习系列是整理自网上很大牛和机器学习专家所无私奉献的资料的.具体引用的资料请看参考文献.具体的版本声明也参考原文献. 2)本文仅供学术交流,非商用.所以每一部 ...

  9. N元马尔科夫链的实现

    马尔可夫模型(Markov Model)是一种统计模型,广泛应用在语音识别,词性自动标注,音字转换,概率文法等各个自然语言处理等应用领域.经过长期发展,尤其是在语音识别中的成功应用,使它成为一种通用的 ...

随机推荐

  1. i2c触摸屏驱动文件的实现

    转自:http://blog.chinaunix.net/uid-29507718-id-4314013.html Linux下I2C接口触摸屏驱动分析  分类: LINUX linux下触摸屏驱动的 ...

  2. 重启随机游走算法(RWR:Random Walk with Restart)

    1 pagerank算法的基本原理 Pagerank算法是Google的网页排名算法,由拉里佩奇发明.其基本思想是民主表决.在互联网上,如果一个网页被很多其他网页所链接,说明它受到普遍的承认和信赖,那 ...

  3. Check the NativeLink log file

    今天用Quartus ii16.1仿真Cyclone IV的IP核DDR2,总是报上面的错误 .网上都说是modelsim路径的问题, 但我确定不是.最后用QaurtusII 12.1可以通道仿真. ...

  4. C++ —— 重载、覆盖和隐藏

    一.重载 发生在同一个类当中,当在同一类当中定义了方法A,然后又定义了方法B,B和A的方法名相同,但是参数不同,那么再是称B重载了方法A. class test{ public: void A(); ...

  5. linux上搭建solr(用jetty部署)

    环境搭建:centos7及solr7版本 描述:最新版本的solr内置了jetty容器,可以支持jetty部署,从而不需要发布到tomcat下面 首先同样先在/usr/local/mypackage上 ...

  6. poj1741(点分模板)

    #include<iostream> #include<cstring> #include<cmath> #include<cstdio> #inclu ...

  7. noip第21课作业

    1. 遍历二叉树 [问题描述] 以先序的方式建立一棵二叉树,空结点用‘#’号表示,例如:abd###ce##f##,将建立一棵如下的二叉树: 输出其中序序列和后序序列,其中总结点个数不超过100. 输 ...

  8. 11:self关键字

    本小节知识点: 类方法中的self 对象方法中的self 全局变量成员变量局部变量 self总结 self使用注意 OC提

  9. kmp小记

    以下转载自Matrix67 ************************************************************************************** ...

  10. 安装部署Ceph Calamari

    根据http://ovirt-china.org/mediawiki/index.php/%E5%AE%89%E8%A3%85%E9%83%A8%E7%BD%B2Ceph_Calamari 原文如下: ...