from gensim.models import Word2Vec as wtv
import jieba s1 = "刘新宇是一个自然语言处理算法工程师"
s2 = "他从事算法方面的工作很多年"
s3 = "刘新宇是一名非常资深的算法工程师" sentences = [jieba.lcut(s1),jieba.lcut(s2),jieba.lcut(s3)]
print(sentences) model = wtv(sentences,min_count=1) print("this is the summary of the model:")
print(model) words = list(model.wv.vocab)
print('this is the vocabulary for our corpus:')
print(words) print("the vector for the word singer:")
print(model['资深']) w1 = ['资深']
print(model.wv.most_similar(positive=w1,topn=5))

  结果:

[['刘新宇', '是', '一个', '自然语言', '处理', '算法', '工程师'], ['他', '从事', '算法', '方面', '的', '工作', '很多年'], ['刘新宇', '是', '一名', '非常', '资深', '的', '算法', '工程师']]
this is the summary of the model:
Word2Vec(vocab=16, size=100, alpha=0.025)
this is the vocabulary for our corpus:
['刘新宇', '是', '一个', '自然语言', '处理', '算法', '工程师', '他', '从事', '方面', '的', '工作', '很多年', '一名', '非常', '资深']
the vector for the word singer:
[-3.7734744e-03 2.6095781e-04 -3.1862229e-03 4.2619775e-03
-4.5439765e-07 -1.8814839e-03 -1.9608627e-03 -4.3091276e-03
2.0104370e-03 2.4313631e-03 3.6958823e-04 -4.6373094e-03
-3.8697310e-03 -1.3030261e-03 3.4550454e-03 3.6497047e-04
-3.0894275e-03 2.7997990e-04 2.4094102e-03 3.7222090e-03
-3.3406885e-03 3.8989806e-03 -1.9044009e-03 -1.2546520e-03
-2.7420574e-03 1.9589183e-03 4.6422374e-03 2.2412005e-03
-4.5687910e-03 -3.0045302e-03 -7.5545040e-04 -1.9913551e-03
-5.4244912e-04 3.4368648e-03 3.1319596e-03 3.5465839e-03
4.0631965e-04 -8.0981071e-04 -4.5625023e-03 1.8198669e-03
-2.3173515e-03 1.3505023e-03 4.2371401e-03 4.9272538e-03
-2.1169472e-03 4.2408700e-03 3.7939013e-03 -1.9469961e-03
-1.0268842e-03 -3.4248799e-03 -4.0382403e-03 -8.0300641e-04
-4.3166843e-03 4.0071514e-03 -5.1711878e-04 -1.0944011e-03
-9.2390249e-04 -2.0183630e-03 -1.1692114e-04 3.7988871e-03
3.0223508e-03 -2.7847637e-03 -2.0709957e-03 -3.2283876e-03
-7.3188142e-04 6.4730411e-06 2.4504904e-03 -1.8213416e-03
-7.2910590e-04 -3.1336993e-03 -2.1612353e-03 3.4241637e-03
9.4859622e-04 -1.1737887e-03 -4.3117562e-03 -2.7182067e-03
-6.3206785e-04 3.5696046e-03 -2.9301932e-03 9.1675809e-04
1.7115782e-03 1.6887123e-03 4.1562999e-03 3.1984923e-03
2.4283223e-04 4.2053428e-03 2.4675422e-03 2.9653152e-03
4.8725074e-03 3.6773803e-03 3.8778691e-03 7.9092768e-04
3.6476396e-03 -1.1947335e-03 -2.0735445e-03 2.1955518e-03
-1.3067436e-03 -2.5959394e-03 4.0679227e-04 7.9005008e-04]
[('工作', 0.1197129413485527), ('非常', 0.08151963353157043), ('一个', 0.061945877969264984), ('的', 0.05767860636115074), ('他', 0.03252919763326645)]
C:/Users/user/Desktop/pycharm_test/test_gensim.py:21: DeprecationWarning: Call to deprecated `__getitem__` (Method will be removed in 4.0.0, use self.wv.__getitem__() instead).
print(model['资深'])

  Word2vec可调整的参数如下:

  def __init__(self, sentences=None, corpus_file=None, size=100, alpha=0.025, window=5, min_count=5,
max_vocab_size=None, sample=1e-3, seed=1, workers=3, min_alpha=0.0001,
sg=0, hs=0, negative=5, ns_exponent=0.75, cbow_mean=1, hashfxn=hash, iter=5, null_word=0,
trim_rule=None, sorted_vocab=1, batch_words=MAX_WORDS_IN_BATCH, compute_loss=False, callbacks=(),
max_final_vocab=None):

  

gensim的word2vec的简单使用的更多相关文章

  1. 文本分布式表示(三):用gensim训练word2vec词向量

    今天参考网上的博客,用gensim训练了word2vec词向量.训练的语料是著名科幻小说<三体>,这部小说我一直没有看,所以这次拿来折腾一下. <三体>这本小说里有不少人名和一 ...

  2. 用gensim学习word2vec

    在word2vec原理篇中,我们对word2vec的两种模型CBOW和Skip-Gram,以及两种解法Hierarchical Softmax和Negative Sampling做了总结.这里我们就从 ...

  3. 解决在使用gensim.models.word2vec.LineSentence加载语料库时报错 UnicodeDecodeError: 'utf-8' codec can't decode byte......的问题

    在window下使用gemsim.models.word2vec.LineSentence加载中文维基百科语料库(已分词)时报如下错误: UnicodeDecodeError: 'utf-8' cod ...

  4. 深度学习 —— 使用 gensim 实现 word2vec

    在自然语言处理领域中,将单词(words)或词语(phases)映射到向量空间(vector space)中可以很容易就得到单词之间的相似度,因为向量空间中两个向量的相似度很容易求得,比如余弦相似度. ...

  5. gensim中word2vec和其他一些向量的使用

    直接上代码吧,word2vec # test from gensim.models.word2vec import Word2Vec txt_file = open('data.txt') sente ...

  6. 机器学习:gensim之Word2Vec 详解

    一 前言 Word2Vec是同上一篇提及的PageRank一样,都是Google的工程师和机器学习专家所提出的的:在学习这些算法.模型的时候,最好优先去看Google提出者的原汁Paper和Proje ...

  7. gensim的word2vec如何得出词向量(python)

    首先需要具备gensim包,然后需要一个语料库用来训练,这里用到的是skip-gram或CBOW方法,具体细节可以去查查相关资料,这两种方法大致上就是把意思相近的词映射到词空间中相近的位置. 语料库t ...

  8. Python gensim库word2vec 基本用法

    ip install gensim安装好库后,即可导入使用: 1.训练模型定义 from gensim.models import Word2Vec   model = Word2Vec(senten ...

  9. gensim中word2vec

    from gensim.models import Word2Vec Word2Vec(self, sentences=None, size=100, alpha=0.025, window=5, m ...

  10. 【python2/3坑】从gensim的Word2Vec.load()的中文vector模型输出时显示unicode码

    服务器上python2.7 打印出的e[0]对应的是 unicode码 于是分别尝试了用e[0].encode('utf-8')转码 和 e[0].decode('unicode-escape')依然 ...

随机推荐

  1. wsl使用记录

    # wsl使用记录 安装 直接参考微软官方文档使用 WSL 在 Windows 上安装 Linux ubuntu可用发行版安装 https://ubuntu.com/wsl 访问 方式一:在资源管理器 ...

  2. LLM 推理和应用 开源框架梳理

    之前对LLM 推理和应用了解不多,因此抽时间梳理了一下,我们从模型量化,模型推理,以及开发平台等三个层面来梳理分析. 模型量化 模型训练时为了进度,采用的32位浮点数,因此占用的空间较大,一些大的模型 ...

  3. if (ctx.ifTo(ctx.property, next)) return

    if (ctx.ifTo(ctx.property, next)) return if (ctx.ifGoto(ctx.property, 'functionName')) return 试试 a & ...

  4. 加密与安全:非对称加密算法 RSA 1024 公钥、秘钥、明文和密文长度

    RSA 1024 是指公钥及私钥分别是 1024bit,也就是 1024/8 = 128Bytes. RSA 原理 RSA 算法密钥长度的选择是安全性和程序性能平衡的结果,密钥长度越长,安全性越好,加 ...

  5. spring boot 自动装载对象为null问题的解决

    情况描述 有个Server类,成员变量是spring中自动管理的bean类对象 public class Server { @Autowired private CommandMapper comma ...

  6. .NET开源快速、强大、免费的电子表格组件

    前言 今天大姚给大家分享一个.NET开源(MIT License).快速.强大.免费的电子表格组件,支持数据格式.冻结.大纲.公式计算.图表.脚本执行等.兼容 Excel 2007 (.xlsx) 格 ...

  7. 使用Wireshark在RTP流中提取中264数据(针对udp)(转)

    调试rtsp收发流时,经常会需要抓包以确认是网络问题还是程序问题还是其它问题.通过tcpdump或者wireshark抓到的包通常是rtp流,保存为.pcap格式文件后中,可通过wireshark进行 ...

  8. C++ Concurrency in Action 读书笔记一:thread的管理

    为避免混淆,用thread表示std::thread及其对象实例,用线程表示操作系统概念下的线程 Chapter 2 thread的管理 2.1 thread的创建(构造函数) a. 默认构造函数 d ...

  9. 《Go程序设计语言》学习笔记之map

    <Go程序设计语言>学习笔记之map 一. 环境 Centos8.5, go1.17.5 linux/amd64 二. 概念 1) 散列表,是一个拥有键值对元素的无序集合.在这个集合中,键 ...

  10. KingbaseES 数据库CPU使用率过高问题与解决

    前言 本文介绍生产环境中CPU使用率高的常见原因,以及在CPU使用率高问题上的可能解决措施. 本文主要内容: 关于用于识别高CPU使用率的工具,例如kwr报告中DB CPU指标.kmonitor和sy ...