对于一段英文,如果希望提取其中的的单词,只需要使用字符串处理的split()方法即可,例如“China is a great country”. 然而对于中文文本,中文单词之间缺少分隔符,这是中文及类似语言独有的“分词问题”. jieba(“结巴”)是python中一个重要的第三方中文分词函数库.jieba库是第三方库,不是python安装包自带的,因此,需要通过pip指令安装. Windows 下使用命令安装:在联网状态下,在命令行下输入 pip install jieba 进行安装,安装
linux C 中声明并初始化一个变量const char a[512]="test";后,接着调用了一个静态库中的函数函数test(b);,a并没有传入test函数,但在调用这个函数后a的值就改变了,变成了类似于??@????的乱码. 原来是因为静态库头文件包含错误:静态库也是自己写的,在使用时包含的头文件过期了,与当前版的静态库不匹配,使用与静态库匹配的头文件即可.