作业练习P194,jieba应用,读取,分词,存储,生成词云,排序,保存
import jieba #第一题
txt='Python是最有意思的编程语言'
words=jieba.lcut(txt) #精确分词
words_all=jieba.lcut(txt,cut_all=True) #全分词
words_sh=jieba.lcut_for_search(txt) #搜索分词 print(words)
print(words_all)
print(words_sh) #第二题
txt1="今天晚上我吃了意大利面"
jieba.add_word("意大利面") #增加分词
words=jieba.lcut(txt1) print(words) #第三题 filepath=r'D:/python/test-py/水浒传.txt'
f=open(filepath,'r',encoding='utf-8')
txt=f.read()
f.close()
words=jieba.lcut(txt)
counts={}
keylist=[]
for word in words:
if len(word)==1:
continue
else:
counts[word]=counts.get(word,0)+1
items=list(counts.items())
items.sort(key=lambda x:x[1],reverse=True)
for i in range(35):
word,count=items[i]
keylist.append(word)
print("{0:^15}--{1:>5}".format(word,count)) print('\n排名前15个词为:',keylist)
#对统计结果进行保存
f=open(r'D:/python/test-py/shuihuzhuang.txt','w')
for i in range(35):
f.write(str(items[i])) ##for i in str(items):
## f.write(i)
##f.write(str(keylist))
f.close() #接上面程序,使用wordcloud输出
def pt(ls):
print(ls) from wordcloud import WordCloud #前15个生成新的列表
##pt('\n新的列表为:')
##for a,b in items[1:16]: #取15个元素
## keylist.append(a)
##pt(keylist)
newtxt=' '.join(keylist) #空格替换
print('\n空格替换后生成:',newtxt)
excludes={'一个'}
wordcloud=WordCloud(background_color='white',\
width=800,\
height=600,\
font_path='msyhbd.ttf',\
max_words=200,\
max_font_size=80,\
stopwords=excludes,\
).generate(newtxt) #生成词云
wordcloud.to_file(r'D:/python/test-py/水浒传.png') ###z最后执行打包合作,在cmd.exe命令行程序 切换到py存放文件夹输入:PyInstaller -F p194zuoye.py
##newlist=[a[i] for a in items] ##pt(newlist)
作业练习P194,jieba应用,读取,分词,存储,生成词云,排序,保存的更多相关文章
- python爬虫——京东评论、jieba分词、wordcloud词云统计
接上一章,动态页面抓取——抓取京东评论区内容. url=‘https://club.jd.com/comment/productPageComments.action?callback=fetchJS ...
- Python3+pdfminer+jieba+wordcloud+matplotlib生成词云(以深圳十三五规划纲要为例)
一.各库功能说明 pdfminer----用于读取pdf文件的内容,python3安装pdfminer3k jieba----用于中文分词 wordcloud----用于生成词云 matplotlib ...
- python 基于 wordcloud + jieba + matplotlib 生成词云
词云 词云是啥?词云突出一个数据可视化,酷炫.以前以为很复杂,不想python已经有成熟的工具来做词云.而我们要做的就是准备关键词数据,挑一款字体,挑一张模板图片,非常非常无脑.准备好了吗,快跟我一起 ...
- wordcloud + jieba 生成词云
利用jieba库和wordcloud生成中文词云. jieba库:中文分词第三方库 分词原理: 利用中文词库,确定汉字之间的关联概率,关联概率大的生成词组 三种分词模式: 1.精确模式:把文本精确的切 ...
- Jieba库使用和好玩的词云
jieba库的使用: (1) jieba库是一款优秀的 Python 第三方中文分词库,jieba 支持三种分词模式:精确模式.全模式和搜索引擎模式,下面是三种模式的特点. 精确模式:试图将语句最精 ...
- python jieba 库分词结合Wordcloud词云统计
import jieba jieba.add_word("福军") jieba.add_word("少安") excludes={"一个", ...
- 使用jieba和wordcloud进行中文分词并生成《悲伤逆流成河》词云
因为词云有利于体现文本信息,所以我就将那天无聊时爬取的<悲伤逆流成河>的评论处理了一下,生成了词云. 关于爬取影评的爬虫大概长这个样子(实际上是没有爬完的): #!/usr/bin/env ...
- python使用matplotlib画图,jieba分词、词云、selenuium、图片、音频、视频、文字识别、人脸识别
一.使用matplotlib画图 关注公众号"轻松学编程"了解更多. 使用matplotlib画柱形图 import matplotlib from matplotlib impo ...
- python jieba 词云
#!/usr/bin/python # coding:utf-8 # 绘制一个<三体>全集词云 # pip install jieba # pip install matplotlib # ...
随机推荐
- java中快速失败(fail-fast)和安全失败(fail-safe)的区别是什么?
一:快速失败(fail—fast) 在用迭代器遍历一个集合对象时,如果遍历过程中对集合对象的内容进行了修改(增加.删除.修改),则会抛出Concurrent Modification Exceptio ...
- Java 泛型高级
1.限制泛型可用类型 在定义泛型类别时,预设可以使用任何的类型来实例化泛型中的类型,但是如果想要限制使用泛型的类别时,只能用某个特定类型或者其子类型才能实例化该类型时,使用extends关键字指定这个 ...
- 对pdf中的图片进行自动识别
对pdf中的图片进行自动识别 商务合作,科技咨询,版权转让:向日葵,135—4855__4328,xiexiaokui#qq.com 原理:增强扫描 效果:自动识别所有图片中的文字,可以选择.复制,进 ...
- Android: ListView与Button的共存问题解决
ListView 和 其它能触发点击事件的widget无法一起正常工作的原因是加入其它widget后,ListView的itemclick事件将无法触发,被其它widget的click事件屏蔽. ...
- Alibaba Java Diagnostic Tool Arthas/Alibaba Java诊断利器Arthas
Arthas 用户文档 — Arthas 3.1.0 文档https://alibaba.github.io/arthas/ alibaba/arthas: Alibaba Java Diagnost ...
- python制作简单excel统计报表3之将mysql数据库中的数据导入excel模板并生成统计图
python制作简单excel统计报表3之将mysql数据库中的数据导入excel模板并生成统计图 # coding=utf-8 from openpyxl import load_workbook ...
- 提供Web相关的个工具类
package com.opslab.util.web; import com.opslab.util.ConvertUtil;import com.opslab.util.StringUtil; i ...
- 【Redis】Redis 主从模式搭建
主从模式介绍 Redis虽然读取写入的速度都特别快,但是也会产生读压力特别大的情况.为了分担读压力,Redis支持主从复制,Redis的主从结构可以采用一主多从或者级联结构,Redis主从复制可以根据 ...
- break 和 continue 的用法
break 是结束循环 continue 是结束本次循环,接下下一个循环
- 透过SourceTree再谈Git
初出茅庐之基础篇 1. Download SourceTree from: https://www.sourcetreeapp.com/ 2.Complete the installation. 3. ...