【Json】Json分词器
package com.hy;
import java.io.BufferedReader;
import java.io.FileInputStream;
import java.io.FileNotFoundException;
import java.io.IOException;
import java.io.InputStreamReader;
import java.util.ArrayList;
import java.util.List;
import org.apache.commons.lang.StringUtils;
class Token{
static final int TYPE_LBRACE=0;// 左大括号
static final int TYPE_RBRACE=1;// 右大括号
static final int TYPE_TEXT=2;// 文本
static final int TYPE_COMMA=3;// 逗号
static final int TYPE_COLON=4;// 冒号
static final int TYPE_LBRACKET=5;// 左中括号
static final int TYPE_RBRACKET=6;// 右中括号
int type;
String text;
public Token(char c,int type) {
this.text=String.valueOf(c);
this.type=type;
}
public Token(String word,int type) {
this.text=word;
this.type=type;
}
}
/**
* Json文本分词器
* @author 逆火
*
* 2019年12月1日 上午11:35:43
*/
public class Lexer {
private List<Token> tokenList;
/**
* Contructor
* @param jsonStr
*/
public Lexer(String jsonStr) {
tokenList=new ArrayList<Token>();
String line="";
for(int i=0;i<jsonStr.length();i++){
char c=jsonStr.charAt(i);
if(Character.isWhitespace(c)){
continue;
}else if(c=='{'){
Token t=new Token(c,Token.TYPE_LBRACE);
tokenList.add(t);
}else if(c=='}'){
if(StringUtils.isNotEmpty(line)) {
Token w=new Token(line,Token.TYPE_TEXT);
tokenList.add(w);
line="";
}
Token t=new Token(c,Token.TYPE_RBRACE);
tokenList.add(t);
}else if(c=='['){
Token t=new Token(c,Token.TYPE_LBRACKET);
tokenList.add(t);
}else if(c==']'){
Token t=new Token(c,Token.TYPE_RBRACKET);
tokenList.add(t);
}else if(c==',') {
if(StringUtils.isNotEmpty(line)) {
Token w=new Token(line,Token.TYPE_TEXT);
tokenList.add(w);
line="";
}
Token t=new Token(c,Token.TYPE_COMMA);
tokenList.add(t);
}else if(c==':') {
if(StringUtils.isNotEmpty(line)) {
Token w=new Token(line,Token.TYPE_TEXT);
tokenList.add(w);
line="";
}
Token t=new Token(c,Token.TYPE_COLON);
tokenList.add(t);
}else {
line+=c;
}
}
}
public List<Token> getTokenList() {
return tokenList;
}
public void printTokens() {
int idx=0;
for(Token t:tokenList) {
idx++;
System.out.println("#"+idx+" "+t.text);
}
}
/**
* Entry point
*/
public static void main(String[] args) {
String filePathname="D:\\logs\\1.json";
try {
StringBuilder sb=new StringBuilder();
BufferedReader br = new BufferedReader(new InputStreamReader(new FileInputStream(filePathname), "UTF-8"));
String line = null;
while( ( line = br.readLine() ) != null ) {
sb.append(line);
}
br.close();
String jsonStr=sb.toString();
System.out.println("Raw json="+jsonStr);
Lexer l=new Lexer(jsonStr);
l.printTokens();
} catch (FileNotFoundException ex) {
ex.printStackTrace();
} catch (IOException ex) {
ex.printStackTrace();
}
}
}
输出:
Raw json={ "status": "0000", "message": "success", "data": { "title": { "id": "001", "name" : "白菜" }, "content": [ { "id": "001", "value":"你好 白菜" }, { "id": "002", "value":"你好 萝卜" } ] }}
#1 {
#2 "status"
#3 :
#4 "0000"
#5 ,
#6 "message"
#7 :
#8 "success"
#9 ,
#10 "data"
#11 :
#12 {
#13 "title"
#14 :
#15 {
#16 "id"
#17 :
#18 "001"
#19 ,
#20 "name"
#21 :
#22 "白菜"
#23 }
#24 ,
#25 "content"
#26 :
#27 [
#28 {
#29 "id"
#30 :
#31 "001"
#32 ,
#33 "value"
#34 :
#35 "你好白菜"
#36 }
#37 ,
#38 {
#39 "id"
#40 :
#41 "002"
#42 ,
#43 "value"
#44 :
#45 "你好萝卜"
#46 }
#47 ]
#48 }
#49 }
--END-- 2019年12月1日12:29:00
【Json】Json分词器的更多相关文章
- 推荐一款JSON字符串查看器
JSON Viewer是一款方便易用的Json格式查看器.Json格式的数据阅读性很差,如果数据量大的话再阅读方面会十分困难,有了这软件,问题就解决了,能够快速把Json字符串排列规则的树结构,支持对 ...
- php 解析json失败,解析为空,json在线解析器可以解析,但是json_decode()解析失败(原)
$str2='{"code":200,"datas":{"id":1,"coupon_id":"123&quo ...
- 自制基于HMM的中文分词器
不像英文那样单词之间有空格作为天然的分界线, 中文词语之间没有明显界限.必须采用一些方法将中文语句划分为单词序列才能进一步处理, 这一划分步骤即是所谓的中文分词. 主流中文分词方法包括基于规则的分词, ...
- elasticsearch分词器Jcseg安装手册
Jcseg是什么? Jcseg是基于mmseg算法的一个轻量级中文分词器,同时集成了关键字提取,关键短语提取,关键句子提取和文章自动摘要等功能,并且提供了一个基于Jetty的web服务器,方便各大语言 ...
- Elasticsearch 分词器
无论是内置的分析器(analyzer),还是自定义的分析器(analyzer),都由三种构件块组成的:character filters , tokenizers , token filters. 内 ...
- ElasticSearch6.5.0 【安装IK分词器】
不得不夸奖一下ES的周边资源,比如这个IK分词器,紧跟ES的版本,卢本伟牛逼!另外ES更新太快了吧,几乎不到半个月一个小版本就发布了!!目前已经发了6.5.2,估计我还没怎么玩就到7.0了. 下载 分 ...
- elasticsearch中文分词器ik-analyzer安装
前面我们介绍了Centos安装elasticsearch 6.4.2 教程,elasticsearch内置的分词器对中文不友好,只会一个字一个字的分,无法形成词语,别急,已经有大拿把中文分词器做好了, ...
- es-07-head插件-ik分词器插件
5.x以后, es对head插件的支持并不是特别好 而且kibana的功能越来越强大, 建议使用kibana 1, head插件安装 在一台机器上安装head插件就可以了 1), 更新,安装依赖 su ...
- elasticsearch安装ansj分词器
1.概述 elasticsearch用于搜索引擎,需要设置一些分词器来优化索引.常用的有ik_max_word: 会将文本做最细粒度的拆分.ik_smart: 会做最粗粒度的拆分.ansj等. ...
随机推荐
- Win10 C盘 系统和保留 占用空间 非常大
Win10 C盘 系统和保留 占用空间 非常大今天在写代码的时候,突然发现Redis起不来了,一看原因,是因为C盘空间不足.然后,我看了下C盘,发现...一个叫系统和保留的东西,居然占了110G的空间 ...
- 那些可作为GC Roots的对象
原文:https://blog.csdn.net/u010798968/article/details/72835255 一.名词解释 根搜索算法是JVM用来的判断对象是否存活的算法,此算法基本思路为 ...
- ntohs的一个简单实现(将网络流中用两个字节16进制表示的资源数(如DNS)和长度转换为整形)
我们知道在由于大端机和小端机导致网络字节序和主机序有可能是有差异的,我们可以使用系统的ntohs,ntohl,htons和htonl这些处理函数进行转换,下面是我写的一个关于ntohs在处理小端机字节 ...
- Eclips+ADT+SDK构建android开发环境及android自动化测试开发环境
一. 需要用到的包: 1.adt-bundle-windows-x86_64-20140702.zip+JDK+ant 2.ant下载地址:http://ant.apache.org/bindownl ...
- Django - 读取Excel文件
目录 返回Django目录 返回随笔首页 没么多事儿,来看示例: 前端重要代码. <div class="row"> <div> <form acti ...
- KVM虚拟机,如何设置虚拟机的CPU型号与物理机是一样的
1.在kvm主机上修改配置文件 [root@node160 ~]# virsh edit CentOS-7.3-X86_64 将xml配置文件中的: <cpu mode='custom' mat ...
- Linux PAM 之cracklib模块
如何在Linux系统中限制密码长度的同时对密码的复杂程度也进行管理,最近发现有人的密码符合长度规则,但是却很简单很容易被猜出来,查了相关资料后发现了PAM中的pam_cracklib模块就是用来 ...
- 织梦dedecms会员中心分类管理无法修改、删除分类名
member/mtypes.PHP 文件中添加 另外,member/myfriend_group.php文件中也存在同样的问题,也要添加,不添加的话好友分组中也是同样问题
- 比较ping,tracert和pathping等命令之间的关系
无论你是一个网络维护人员,还是正在学习TCP/IP协议,了解和掌握一些常用的网络测试命令将会有助于您更快地检测到网络故障所在,同时也会有助你您了解网络通信的内幕. 下面我们逐步介绍几个常用的命令: 1 ...
- memorization-根据输入重新计算render的数据
在实际开发过程中,经常遇到根据props和state变化,重新计算“渲染阶段”需要的数据的情况. 如:根据输入的值实时过滤select列表,或者表格数据(查询过滤). 问题特点: 1. 每次渲染都会调 ...