Note of Jieba
Note of Jieba
jieba库是python 一个重要的第三方中文分词函数库,但需要用户自行安装。
一、jieba 库简介
(1) jieba 库的分词原理是利用一个中文词库,将待分词的内容与分词词库进行比对,通过图结构和动态规划方法找到最大概率的词组;除此之外,jieba 库还提供了增加自定义中文单词的功能。
(2) jieba 库支持3种分词模式:
精确模式:将句子最精确地切开,适合文本分析。
全模式:将句子中所以可以成词的词语都扫描出来,速度非常快,但是不能消除歧义。
搜索引擎模式:在精确模式的基础上,对长分词再次切分,提高召回率,适合搜索引擎分词。
二、安装库函数
(1) 在命令行下输入指令:
pip install jieba
(2) 安装进程:


三、调用库函数
(1) 导入库函数:import <库名>
使用库中函数:<库名> . <函数名> (<函数参数>)

(2) 导入库函数:from <库名> import * ( *为通配符 )
使用库中函数:<函数名> (<函数参数>)

四、jieba 库函数
(1) 库函数功能
| 模式 | 函数 | 说明 | 
| 精确模式 | cut(s) | 返回一个可迭代数据类型 | 
| lcut(s) | 返回一个列表类型 (建议使用) | |
| 全模式 | cut(s,cut_all=True) | 输出s中所以可能的分词 | 
| lcut(s,cut_all=True) | 返回一个列表类型 (建议使用) | |
| 搜索引擎模式 | cut_for_search(s) | 适合搜索引擎建立索引的分词结果 | 
| lcut_for_search(s) | 返回一个列表类型 (建议使用) | |
| 自定义新词 | add_word(w) | 向分词词典中增加新词w | 
(2) 函数使用实例

五、对一篇文档进行词频统计
(1) jieba 库单枪匹马
A. 代码实现
注:代码使用的文档 >>> Detective_Novel(utf-8).zip[点击下载],也可自行找 utf-8 编码格式的txt文件。

1 # -*- coding:utf-8 -*-
2 from jieba import *
3
4 def Replace(text,old,new): #替换列表的字符串
5 for char in old:
6 text = text.replace(char,new)
7 return text
8
9 def getText(filename): #读取文件内容(utf-8 编码格式)
10 #特殊符号和部分无意义的词
11 sign = '''!~·@¥……*“”‘’\n(){}【】;:"'「,」。-、?'''
12 txt = open('{}.txt'.format(filename),encoding='utf-8').read()
13 return Replace(txt,sign," ")
14
15 def word_count(passage,N): #计算passage文件中的词频数,并将前N个输出
16 words = lcut(passage) #精确模式分词形式
17 counts = {} #创建计数器 --- 字典类型
18 for word in words: #消除同意义的词和遍历计数
19 if word == '小五' or word == '小五郎' or word == '五郎':
20 rword = '毛利'
21 elif word == '柯' or word == '南':
22 rword = '柯南'
23 elif word == '小' or word == '兰':
24 rword = '小兰'
25 elif word == '目' or word == '暮' or word == '警官':
26 rword = '暮目'
27 else:
28 rword = word
29 counts[rword] = counts.get(rword,0) + 1
30 excludes = lcut_for_search("你我事他和她在这也有什么的是就吧啊吗哦呢都了一个")
31 for word in excludes: #除去意义不大的词语
32 del(counts[word])
33 items = list(counts.items()) #转换成列表形式
34 items.sort(key = lambda x : x[1], reverse = True ) #按次数排序
35 for i in range(N): #依次输出
36 word,count = items[i]
37 print("{:<7}{:>6}".format(word,count))
38
39 if __name__ == '__main__':
40 passage = getText('Detective_Novel') #输入文件名称读入文件内容
41 word_count(passage,20) #调用函数得到词频数

B. 执行结果

(2) jieba 库 和 wordcloud 库 强强联合 --- 词云图
A. 代码实现

1 # -*- coding:utf-8 -*-
2 from wordcloud import WordCloud
3 import matplotlib.pyplot as plt
4 import numpy as np
5 from PIL import Image
6 from jieba import *
7
8 def Replace(text,old,new): #替换列表的字符串
9 for char in old:
10 text = text.replace(char,new)
11 return text
12
13 def getText(filename): #读取文件内容(utf-8 编码格式)
14 #特殊符号和部分无意义的词
15 sign = '''!~·@¥……*“”‘’\n(){}【】;:"'「,」。-、?'''
16 txt = open('{}.txt'.format(filename),encoding='utf-8').read()
17 return Replace(txt,sign," ")
18
19 def creat_word_cloud(filename): #将filename 文件的词语按出现次数输出为词云图
20 text = getText(filename) #读取文件
21 wordlist = lcut(text) #jieba库精确模式分词
22 wl = ' '.join(wordlist) #生成新的字符串
23
24 #设置词云图
25 font = r'C:\Windows\Fonts\simfang.ttf' #设置字体路径
26 wc = WordCloud(
27 background_color = 'black', #背景颜色
28 max_words = 2000, #设置最大显示的词云数
29 font_path = font, #设置字体形式(在本机系统中)
30 height = 1200, #图片高度
31 width = 1600, #图片宽度
32 max_font_size = 100, #字体最大值
33 random_state = 100, #配色方案的种类
34 )
35 myword = wc.generate(wl) #生成词云
36 #展示词云图
37 plt.imshow(myword)
38 plt.axis('off')
39 plt.show()
40 #以原本的filename命名保存词云图
41 wc.to_file('{}.png'.format(filename))
42
43 if __name__ == '__main__':
44 creat_word_cloud('Detective_Novel') #输入文件名生成词云图

B. 执行结果

Note of Jieba的更多相关文章
- Note of Jieba ( 词云图实例 )
		Note of Jieba jieba库是python 一个重要的第三方中文分词函数库,但需要用户自行安装. 一.jieba 库简介 (1) jieba 库的分词原理是利用一个中文词库,将待分词的内容 ... 
- jieba库
		Note of Jieba ( 词云图实例 ) Note of Jieba jieba库是python 一个重要的第三方中文分词函数库,但需要用户自行安装. 一.jieba 库简介 (1) jieba ... 
- python环境jieba分词的安装
		我的python环境是Anaconda3安装的,由于项目需要用到分词,使用jieba分词库,在此总结一下安装方法. 安装说明======= 代码对 Python 2/3 均兼容 * 全自动安装:`ea ... 
- jieba完整文档
		jieba “结巴”中文分词:做最好的 Python 中文分词组件 "Jieba" (Chinese for "to stutter") Chinese tex ... 
- jieba分词原理解析:用户词典如何优先于系统词典
		目标 查看jieba分词组件源码,分析源码各个模块的功能,找到分词模块,实现能自定义分词字典,且优先级大于系统自带的字典等级,以医疗词语邻域词语为例. jieba分词地址:github地址:https ... 
- 三星Note 7停产,原来是吃了流程的亏
		三星Note 7发售两个月即成为全球噩梦,从首炸到传言停产仅仅47天.所谓"屋漏偏逢连天雨",相比华为.小米等品牌对其全球市场的挤压.侵蚀,Galaxy Note 7爆炸事件这场连 ... 
- 《Note --- Unreal --- MemPro (CONTINUE... ...)》
		Mem pro 是一个主要集成内存泄露检测的工具,其具有自身的源码和GUI,在GUI中利用"Launch" button进行加载自己待检测的application,目前支持的平台为 ... 
- 《Note --- Unreal 4 --- Sample analyze --- StrategyGame(continue...)》
		---------------------------------------------------------------------------------------------------- ... 
- 中文分词工具探析(二):Jieba
		1. 前言 Jieba是由fxsjy大神开源的一款中文分词工具,一款属于工业界的分词工具--模型易用简单.代码清晰可读,推荐有志学习NLP或Python的读一下源码.与采用分词模型Bigram + H ... 
随机推荐
- Java核心知识盘点(三)- 框架篇-Spring
			Spring的两大核心特性:IOC.AOP IOC:控制反转.依赖注入,它并不是一种技术实现,而是一种思想.把一些相互依赖对象的创建.协调工作交给Spring容器来管理,每个对象只需要关注其自身的业务 ... 
- 初学者易上手的SSH-spring 01控制反转(IOC)
			这章开始学习SSH中最后的一个框架spring.Spring是一个开放源代码的设计层面框架,他解决的是业务逻辑层和其他各层的松耦合问题,因此它将面向接口的编程思想贯穿整个系统应用. 首先就来学习一下I ... 
- linux查看用户登录时间以及命令历史
			1.查看当前登录用户信息 who命令: who缺省输出包括用户名.终端类型.登陆日期以及远程主机. who /var/log/wtmp 可以查看自从wtmp文件创建以来的每一次登陆情况 (1)-b:查 ... 
- Eclipse下运行maven项目失败且Tomcat服务器也启动不了
			今天遇到一个神奇的问题,在eclipse中创建一个maven项目后,Run on server 时说服务器启动失败.我以为是Eclipse配置tomcat的问题.找了一大堆没找到想要的答案!!! 我还 ... 
- java.util.concurrent.ExecutionException: com.android.builder.internal.aapt.v2.Aapt2Exception: AAPT2 error: check logs for details
			Caused by: java.util.concurrent.ExecutionException: com.android.builder.internal.aapt.v2.Aapt2Except ... 
- Js拾忆
			instanceof运算符:他是判断一个构造函数的prototype是否在对象的原型链上查找到 var a = new Array(); console.log(a instanceof Array) ... 
- js计算地球(地图)上两点的直线距离
			//计算两点位置距离 getDistance: function (lat1, lng1, lat2, lng2) { lat1 = lat1 || 0; lng1 = lng1 || 0; lat2 ... 
- springboot 启动报错
			有一个警告 :** WARNING ** : Your ApplicationContext is unlikely to start due to a @ComponentScan of the d ... 
- python正则表达式 - re
			1,匹配符号 任意字符 . : 任意字符,除了\n,flags设置为DOTALL(S)可以让.匹配\n []字符集合,字符组:规范/元字符不同于正则式主体 [0-9] : 数字 [A-Z] : 大写字 ... 
- 【网址】ILSpy,C# .net/dot net的反编译工具
			ILSpy官网:http://ilspy.net/ ILSpy中文版:http://www.fishlee.net/soft/ilspy_chs/ 
