一:功能背景



近期要做个高亮的搜索需求,曾经也搞过。所以没啥难度。仅仅只是原来用的是Lucene,如今要换成Solr而已,在Lucene4.x的时候,散仙在曾经的文章中也分析过怎样在搜索的时候实现高亮,主要有三种方式。详细内容,请參考散仙曾经的2篇文章:

第一:在Lucene4.3中实现高亮的方式

http://qindongliang.iteye.com/blog/1953409

第二:在Solr4.3中服务端高亮的方式

http://qindongliang.iteye.com/blog/2034270







二:方案探究



从总体来讲。主要有2种实现方式,第一就是前台展示数据时使用js高亮,第二就是服务端高亮后返回给前台



后端高亮的流程:







前端高亮的流程:









三:优劣分析



后端高亮:

性能:并发量大的情况下,可能对server的性能造成一定影响。

可靠性:高,在浏览器禁用js脚本情况下,仍能够正常显示

前端高亮:

性能:由client渲染,相对性能稍高

可靠性:低,在浏览器禁用js脚本情况下,高亮失效



四:注意事项



前台高亮时,须要把句子分词后的词组。返回给前台js,便于正则替换,关于把句子分词,能够用lucene也能够用solr,方式分别例如以下:

在Lucene中:

  1. /***
  2. *
  3. * @param analyzer 分词器
  4. * @param text  分词句子
  5. * @throws Exception
  6. */
  7. public static void analyzer(Analyzer analyzer,String text)throws Exception{
  8. TokenStream ts = analyzer.tokenStream("name",text);
  9. CharTermAttribute term=ts.addAttribute(CharTermAttribute.class);
  10. ts.reset();
  11. while(ts.incrementToken()){
  12. System.out.println(term.toString());
  13. }
  14. ts.end();
  15. ts.close();
  16. }
/***
*
* @param analyzer 分词器
* @param text 分词句子
* @throws Exception
*/
public static void analyzer(Analyzer analyzer,String text)throws Exception{
TokenStream ts = analyzer.tokenStream("name",text);
CharTermAttribute term=ts.addAttribute(CharTermAttribute.class);
ts.reset();
while(ts.incrementToken()){
System.out.println(term.toString());
}
ts.end();
ts.close();
}

在solr中,方式1:

  1. /***
  2. * 依据字段类型分词并打印分词结果
  3. * @param text
  4. */
  5. public static void showAnalysisType(String text)throws Exception{
  6. String fieldType="ik";//分词类型
  7. //调用服务
  8. FieldAnalysisRequest request = new FieldAnalysisRequest("/analysis/field");
  9. //设置类型
  10. request.addFieldType(fieldType);
  11. //设置待分词的句子
  12. request.setFieldValue(text);
  13. //sc=private static HttpSolrClient sc=new HttpSolrClient("http://localhost:8983/solr/one");
  14. //得到结果
  15. FieldAnalysisResponse response =request.process(sc);
  16. //得到相应的Analysis
  17. Analysis as = response.getFieldTypeAnalysis(fieldType);
  18. List<String> results = new ArrayList<String>();
  19. //使用guava的库,将iteratro对象转换为List对象
  20. List<AnalysisPhase> list=Lists.newArrayList(as.getIndexPhases().iterator());
  21. //取某一个fitler的分词结果,由于一个fieldtype非常有可能配置了多个filter。每一步经过
  22. //filter的结果都不一样,所以此处。要指定一个获取分词结果的filter。跟由于有关
  23. //所以散仙这里就写list.size-1了。注意此处的值,并非固定的
  24. for(TokenInfo token:list.get(list.size()-1).getTokens()){
  25. //得到分词数据结果
  26. results.add(token.getText());
  27. }
  28. }
	/***
* 依据字段类型分词并打印分词结果
* @param text
*/
public static void showAnalysisType(String text)throws Exception{ String fieldType="ik";//分词类型
//调用服务
FieldAnalysisRequest request = new FieldAnalysisRequest("/analysis/field");
//设置类型
request.addFieldType(fieldType);
//设置待分词的句子
request.setFieldValue(text);
//sc=private static HttpSolrClient sc=new HttpSolrClient("http://localhost:8983/solr/one");
//得到结果
FieldAnalysisResponse response =request.process(sc);
//得到相应的Analysis
Analysis as = response.getFieldTypeAnalysis(fieldType);
List<String> results = new ArrayList<String>();
//使用guava的库。将iteratro对象转换为List对象
List<AnalysisPhase> list=Lists.newArrayList(as.getIndexPhases().iterator());
//取某一个fitler的分词结果,由于一个fieldtype非常有可能配置了多个filter,每一步经过
//filter的结果都不一样,所以此处。要指定一个获取分词结果的filter,跟由于有关
//所以散仙这里就写list.size-1了,注意此处的值,并非固定的
for(TokenInfo token:list.get(list.size()-1).getTokens()){
//得到分词数据结果
results.add(token.getText());
} }

在solr中,方式2:

  1. /***
  2. * 依据字段名分词并打印分词结果
  3. * @param text
  4. */
  5. public static void showAnalysis(String text)throws Exception{
  6. //此处是字段名
  7. String fieldName="cpyName";
  8. //固定写法
  9. FieldAnalysisRequest request = new FieldAnalysisRequest("/analysis/field");
  10. //加入field
  11. request.addFieldName(fieldName);
  12. //设置须要分词的句子
  13. request.setFieldValue(text);
  14. //请求solr服务得到结果
  15. FieldAnalysisResponse response =request.process(sc);
  16. //封装结果,返回,可能供其兴许调用的业务处理
  17. List<String> results = new ArrayList<String>();
  18. //依据字段名获取结果
  19. Analysis as=response.getFieldNameAnalysis(fieldName);
  20. //使用guava工具包,转iterator为List
  21. List<AnalysisPhase> list=Lists.newArrayList(as.getIndexPhases().iterator());
  22. //打印分词结果
  23. for(TokenInfo token:list.get(list.size()-1).getTokens()){
  24. System.out.println(token.getText());
  25. }
  26. }
/***
* 依据字段名分词并打印分词结果
* @param text
*/
public static void showAnalysis(String text)throws Exception{
//此处是字段名
String fieldName="cpyName";
//固定写法
FieldAnalysisRequest request = new FieldAnalysisRequest("/analysis/field");
//加入field
request.addFieldName(fieldName);
//设置须要分词的句子
request.setFieldValue(text);
//请求solr服务得到结果
FieldAnalysisResponse response =request.process(sc);
//封装结果,返回。可能供其兴许调用的业务处理
List<String> results = new ArrayList<String>();
//依据字段名获取结果
Analysis as=response.getFieldNameAnalysis(fieldName);
//使用guava工具包。转iterator为List
List<AnalysisPhase> list=Lists.newArrayList(as.getIndexPhases().iterator());
//打印分词结果
for(TokenInfo token:list.get(list.size()-1).getTokens()){
System.out.println(token.getText());
} }



最后欢迎大家扫码关注微信公众号:我是攻城师(woshigcs)。我们一起学习,进步和交流!(woshigcs)

本公众号的内容是有关搜索和大数据技术和互联网等方面内容的分享。也是一个温馨的技术互动交流的小家园,有什么问题随时都能够留言,欢迎大家来訪!



在Lucene或Solr中实现高亮的策略的更多相关文章

  1. lucene、solr中的日期衰减方法-------function query --尚未测试在solr4.8

    经常有一种情景是这样的:我们索引了N年的文章,而查询时候无论直接用相关度.或者用时间排序,都是比较鲁莽的:我们想要一种既要相关度比较高,又要时间上比较新的文章. 这时候的解决办法就是,自定义日期衰减的 ...

  2. 使用 Apache Lucene 和 Solr 4 实现下一代搜索和分析

    使用 Apache Lucene 和 Solr 4 实现下一代搜索和分析 使用搜索引擎计数构建快速.高效和可扩展的数据驱动应用程序 Apache Lucene™ 和 Solr™ 是强大的开源搜索技术, ...

  3. Solr 中的 docValues=true

    前言:  在Lucene4.x之后,出现一个重大的特性,就是索引支持DocValues,这对于广大的solr和elasticsearch用户,无疑来说是一个福音,这玩意的出现通过牺牲一定的磁盘空间带来 ...

  4. 在Solr中配置和使用ansj分词

    在上一节[编译Ansj之Solr插件]中介绍如何编译ansj分词在solr(lucene)环境中使用的接口,本章将介绍如何在solr中使用ansj,其步骤主要包括:下载或者编译ansj和nlp-lan ...

  5. Solr分页与高亮(使用SolrNet实现)

    Solr分页与高亮(使用SolrNet实现) 本节我们使用Asp.net MVC实现Solr客户端查询,建议使用SolrNet这个客户端,开源地址在:https://github.com/mausch ...

  6. Solr 08 - 在Solr Web管理页面中查询索引数据 (Solr中各类查询参数的使用方法)

    目录 1 Solr管理页面的查询入口 2 Solr查询输入框简介 3 Solr管理页面的查询方案 1 Solr管理页面的查询入口 选中需要查询的SolrCore, 然后在菜单栏选择[Query]: 2 ...

  7. Solr 06 - Solr中配置使用IK分词器 (配置schema.xml)

    目录 1 配置中文分词器 1.1 准备IK中文分词器 1.2 配置schema.xml文件 1.3 重启Tomcat并测试 2 配置业务域 2.1 准备商品数据 2.2 配置商品业务域 2.3 配置s ...

  8. solr中Cache综述

    一.概述 Solr查询的核心类就是SolrIndexSearcher,每个core通常在同一时刻只由当前的SolrIndexSearcher供上层的handler使用(当切换SolrIndexSear ...

  9. 开源搜素引擎:Lucene、Solr、Elasticsearch、Sphinx优劣势比较

    https://blog.csdn.net/belalds/article/details/82667692 开源搜索引擎分类 1.Lucene系搜索引擎,java开发,包括: Lucene Solr ...

随机推荐

  1. Codeforces Round #423 A Restaurant Tables(模拟)

    A. Restaurant Tables time limit per test 1 second memory limit per test 256 megabytes input standard ...

  2. Flask实战第68天:项目上线部署

    在开发机上的准备工作 1.确认项目没有bug 2.用pip freeze >requirements.txt将当前环境的包导出到requirements.txt文件中,方便部署的时候安装 3.将 ...

  3. jvm 哪些是不会被gc回收的

    韩梦飞沙 yue31313 韩亚飞 han_meng_fei_sha 313134555@qq.com

  4. POJ2505 A multiplication game 博弈论 找规律

    http://poj.org/problem?id=2505 感觉博弈论只有找规律的印象已经在我心中埋下了种子... 题目大意:两个人轮流玩游戏,Stan先手,数字 p从1开始,Stan乘以一个2-9 ...

  5. 「2018山东一轮集训」 Tree

    为什么出题人这么毒瘤啊??!!一个分块还要带log的题非要出成n<=2*1e5....... 为了卡过最后两个点我做了无数常数优化,包括但不限于:把所有线段树改成 存差分的树状数组:把树剖求LC ...

  6. 【动态规划】Round Subset

    CF837D. Round Subset Let's call the roundness of the number the number of zeros to which it ends. Yo ...

  7. 【找规律】计蒜客17118 2017 ACM-ICPC 亚洲区(西安赛区)网络赛 E. Maximum Flow

    题意:一张有n个点的图,结点被编号为0~n-1,i往所有编号比它大的点j连边,权值为i xor j.给你n,问你最大流. 打个表,别忘了把相邻两项的差打出来,你会发现神奇的规律……你会发现每个答案都是 ...

  8. bzoj 3384: [Usaco2004 Nov]Apple Catching 接苹果

    双倍经验题... -->1750 dp!! 3384: [Usaco2004 Nov]Apple Catching 接苹果 Time Limit: 1 Sec  Memory Limit: 12 ...

  9. openssh相关

    openssh相关    DSA RSA,非对称加密,产生公钥.私钥,前者存放在remote,后者存放在local,ssh-keygen产生公钥私钥时,提示输入私钥密码,防止私钥泄露被盗    ssh ...

  10. php ob静态缓存

    <?php ob_start(); //打开输出缓冲区 $cacheTime = 864000; //设置缓存页面过期时间 $cacheDir = 'cacheDir'; //设置缓存页面文件目 ...