一:功能背景



近期要做个高亮的搜索需求,曾经也搞过。所以没啥难度。仅仅只是原来用的是Lucene,如今要换成Solr而已,在Lucene4.x的时候,散仙在曾经的文章中也分析过怎样在搜索的时候实现高亮,主要有三种方式。详细内容,请參考散仙曾经的2篇文章:

第一:在Lucene4.3中实现高亮的方式

http://qindongliang.iteye.com/blog/1953409

第二:在Solr4.3中服务端高亮的方式

http://qindongliang.iteye.com/blog/2034270







二:方案探究



从总体来讲。主要有2种实现方式,第一就是前台展示数据时使用js高亮,第二就是服务端高亮后返回给前台



后端高亮的流程:







前端高亮的流程:









三:优劣分析



后端高亮:

性能:并发量大的情况下,可能对server的性能造成一定影响。

可靠性:高,在浏览器禁用js脚本情况下,仍能够正常显示

前端高亮:

性能:由client渲染,相对性能稍高

可靠性:低,在浏览器禁用js脚本情况下,高亮失效



四:注意事项



前台高亮时,须要把句子分词后的词组。返回给前台js,便于正则替换,关于把句子分词,能够用lucene也能够用solr,方式分别例如以下:

在Lucene中:

  1. /***
  2. *
  3. * @param analyzer 分词器
  4. * @param text  分词句子
  5. * @throws Exception
  6. */
  7. public static void analyzer(Analyzer analyzer,String text)throws Exception{
  8. TokenStream ts = analyzer.tokenStream("name",text);
  9. CharTermAttribute term=ts.addAttribute(CharTermAttribute.class);
  10. ts.reset();
  11. while(ts.incrementToken()){
  12. System.out.println(term.toString());
  13. }
  14. ts.end();
  15. ts.close();
  16. }
/***
*
* @param analyzer 分词器
* @param text 分词句子
* @throws Exception
*/
public static void analyzer(Analyzer analyzer,String text)throws Exception{
TokenStream ts = analyzer.tokenStream("name",text);
CharTermAttribute term=ts.addAttribute(CharTermAttribute.class);
ts.reset();
while(ts.incrementToken()){
System.out.println(term.toString());
}
ts.end();
ts.close();
}

在solr中,方式1:

  1. /***
  2. * 依据字段类型分词并打印分词结果
  3. * @param text
  4. */
  5. public static void showAnalysisType(String text)throws Exception{
  6. String fieldType="ik";//分词类型
  7. //调用服务
  8. FieldAnalysisRequest request = new FieldAnalysisRequest("/analysis/field");
  9. //设置类型
  10. request.addFieldType(fieldType);
  11. //设置待分词的句子
  12. request.setFieldValue(text);
  13. //sc=private static HttpSolrClient sc=new HttpSolrClient("http://localhost:8983/solr/one");
  14. //得到结果
  15. FieldAnalysisResponse response =request.process(sc);
  16. //得到相应的Analysis
  17. Analysis as = response.getFieldTypeAnalysis(fieldType);
  18. List<String> results = new ArrayList<String>();
  19. //使用guava的库,将iteratro对象转换为List对象
  20. List<AnalysisPhase> list=Lists.newArrayList(as.getIndexPhases().iterator());
  21. //取某一个fitler的分词结果,由于一个fieldtype非常有可能配置了多个filter。每一步经过
  22. //filter的结果都不一样,所以此处。要指定一个获取分词结果的filter。跟由于有关
  23. //所以散仙这里就写list.size-1了。注意此处的值,并非固定的
  24. for(TokenInfo token:list.get(list.size()-1).getTokens()){
  25. //得到分词数据结果
  26. results.add(token.getText());
  27. }
  28. }
	/***
* 依据字段类型分词并打印分词结果
* @param text
*/
public static void showAnalysisType(String text)throws Exception{ String fieldType="ik";//分词类型
//调用服务
FieldAnalysisRequest request = new FieldAnalysisRequest("/analysis/field");
//设置类型
request.addFieldType(fieldType);
//设置待分词的句子
request.setFieldValue(text);
//sc=private static HttpSolrClient sc=new HttpSolrClient("http://localhost:8983/solr/one");
//得到结果
FieldAnalysisResponse response =request.process(sc);
//得到相应的Analysis
Analysis as = response.getFieldTypeAnalysis(fieldType);
List<String> results = new ArrayList<String>();
//使用guava的库。将iteratro对象转换为List对象
List<AnalysisPhase> list=Lists.newArrayList(as.getIndexPhases().iterator());
//取某一个fitler的分词结果,由于一个fieldtype非常有可能配置了多个filter,每一步经过
//filter的结果都不一样,所以此处。要指定一个获取分词结果的filter,跟由于有关
//所以散仙这里就写list.size-1了,注意此处的值,并非固定的
for(TokenInfo token:list.get(list.size()-1).getTokens()){
//得到分词数据结果
results.add(token.getText());
} }

在solr中,方式2:

  1. /***
  2. * 依据字段名分词并打印分词结果
  3. * @param text
  4. */
  5. public static void showAnalysis(String text)throws Exception{
  6. //此处是字段名
  7. String fieldName="cpyName";
  8. //固定写法
  9. FieldAnalysisRequest request = new FieldAnalysisRequest("/analysis/field");
  10. //加入field
  11. request.addFieldName(fieldName);
  12. //设置须要分词的句子
  13. request.setFieldValue(text);
  14. //请求solr服务得到结果
  15. FieldAnalysisResponse response =request.process(sc);
  16. //封装结果,返回,可能供其兴许调用的业务处理
  17. List<String> results = new ArrayList<String>();
  18. //依据字段名获取结果
  19. Analysis as=response.getFieldNameAnalysis(fieldName);
  20. //使用guava工具包,转iterator为List
  21. List<AnalysisPhase> list=Lists.newArrayList(as.getIndexPhases().iterator());
  22. //打印分词结果
  23. for(TokenInfo token:list.get(list.size()-1).getTokens()){
  24. System.out.println(token.getText());
  25. }
  26. }
/***
* 依据字段名分词并打印分词结果
* @param text
*/
public static void showAnalysis(String text)throws Exception{
//此处是字段名
String fieldName="cpyName";
//固定写法
FieldAnalysisRequest request = new FieldAnalysisRequest("/analysis/field");
//加入field
request.addFieldName(fieldName);
//设置须要分词的句子
request.setFieldValue(text);
//请求solr服务得到结果
FieldAnalysisResponse response =request.process(sc);
//封装结果,返回。可能供其兴许调用的业务处理
List<String> results = new ArrayList<String>();
//依据字段名获取结果
Analysis as=response.getFieldNameAnalysis(fieldName);
//使用guava工具包。转iterator为List
List<AnalysisPhase> list=Lists.newArrayList(as.getIndexPhases().iterator());
//打印分词结果
for(TokenInfo token:list.get(list.size()-1).getTokens()){
System.out.println(token.getText());
} }



最后欢迎大家扫码关注微信公众号:我是攻城师(woshigcs)。我们一起学习,进步和交流!(woshigcs)

本公众号的内容是有关搜索和大数据技术和互联网等方面内容的分享。也是一个温馨的技术互动交流的小家园,有什么问题随时都能够留言,欢迎大家来訪!



在Lucene或Solr中实现高亮的策略的更多相关文章

  1. lucene、solr中的日期衰减方法-------function query --尚未测试在solr4.8

    经常有一种情景是这样的:我们索引了N年的文章,而查询时候无论直接用相关度.或者用时间排序,都是比较鲁莽的:我们想要一种既要相关度比较高,又要时间上比较新的文章. 这时候的解决办法就是,自定义日期衰减的 ...

  2. 使用 Apache Lucene 和 Solr 4 实现下一代搜索和分析

    使用 Apache Lucene 和 Solr 4 实现下一代搜索和分析 使用搜索引擎计数构建快速.高效和可扩展的数据驱动应用程序 Apache Lucene™ 和 Solr™ 是强大的开源搜索技术, ...

  3. Solr 中的 docValues=true

    前言:  在Lucene4.x之后,出现一个重大的特性,就是索引支持DocValues,这对于广大的solr和elasticsearch用户,无疑来说是一个福音,这玩意的出现通过牺牲一定的磁盘空间带来 ...

  4. 在Solr中配置和使用ansj分词

    在上一节[编译Ansj之Solr插件]中介绍如何编译ansj分词在solr(lucene)环境中使用的接口,本章将介绍如何在solr中使用ansj,其步骤主要包括:下载或者编译ansj和nlp-lan ...

  5. Solr分页与高亮(使用SolrNet实现)

    Solr分页与高亮(使用SolrNet实现) 本节我们使用Asp.net MVC实现Solr客户端查询,建议使用SolrNet这个客户端,开源地址在:https://github.com/mausch ...

  6. Solr 08 - 在Solr Web管理页面中查询索引数据 (Solr中各类查询参数的使用方法)

    目录 1 Solr管理页面的查询入口 2 Solr查询输入框简介 3 Solr管理页面的查询方案 1 Solr管理页面的查询入口 选中需要查询的SolrCore, 然后在菜单栏选择[Query]: 2 ...

  7. Solr 06 - Solr中配置使用IK分词器 (配置schema.xml)

    目录 1 配置中文分词器 1.1 准备IK中文分词器 1.2 配置schema.xml文件 1.3 重启Tomcat并测试 2 配置业务域 2.1 准备商品数据 2.2 配置商品业务域 2.3 配置s ...

  8. solr中Cache综述

    一.概述 Solr查询的核心类就是SolrIndexSearcher,每个core通常在同一时刻只由当前的SolrIndexSearcher供上层的handler使用(当切换SolrIndexSear ...

  9. 开源搜素引擎:Lucene、Solr、Elasticsearch、Sphinx优劣势比较

    https://blog.csdn.net/belalds/article/details/82667692 开源搜索引擎分类 1.Lucene系搜索引擎,java开发,包括: Lucene Solr ...

随机推荐

  1. SpringMVC完成文件上传的基本步骤

    1.修改form表单的提交方式 2.将文件存入磁盘 3.配置视图解析器 1).前端文件 --需要在form表单中添加 enctype="multipart/form-data"属性 ...

  2. Sqlite的导入导出功能

    导出,使用dump命令 导入,使用read命令 可以直接执行,类似 sqlite xxx.db3 ".read ../sss.sql"

  3. summernote富文本编辑器配合validate表单验证无法进行表单提交的问题

    1.使用summernote富文本编辑器提交图片到服务器 在使用bootstrap中,我们用到了summernote富文本编辑器,使用summernote将图片上传到服务器中,参考我的上篇文章http ...

  4. logging模块介绍

    在我们的实际开发过程中,我们有时候需要记录一些重要操作,或者程序运行情况,我们就需要在程序里面写入日志,来达到更快的排错跟记录重要操作的目的.在Python中logging模块就很好的解决了这个问题, ...

  5. Loj10222 佳佳的Fibonacci(矩阵乘法)

    题面 给定\(n,m\),求: \[ T(n)=\sum_{i=1}^ni\times f_i \] 其中\(f_i\)为斐波那契数列的第\(i\)项 题解 不妨设: \[ S(n)=\sum_{i= ...

  6. oracle 查看16进制

    DUMP function is useful for this purpose. SQL> select dump(C1) from test; DUMP(C1)--------------- ...

  7. Xamarin Android SDK无法更新的解决办法

    Xamarin Android SDK无法更新的解决办法   Xamarin Android SDK无法更新的解决办法,更新时候,提示警告信息:A folder failed to be moved. ...

  8. 对Webservice的理解

    eb   Service使用的是   SOAP   (Simple   Object   Access   Protocol)协议 soap协议只是用来封装消息用的.封装后的消息你可以通过各种已有的协 ...

  9. 【BZOJ 2803】【POI 2012】Prefixuffix

    http://www.lydsy.com/JudgeOnline/problem.php?id=2803 核心思想是利用单调性. 因为长度为L的前缀和后缀循环同构是AB和BA的形式,我们设\(f(i) ...

  10. codevs1033 蚯蚓的游戏问题 裸最小费用最大流,注意要拆点

    因为蚯蚓走过的路径不能重合,所以把每个点拆成两个点,容量赋为1,保证不会走过相同的点,再加超级源点(程序中为1)和一个辅助点(程序中为2)容量赋为k来控制蚯蚓的数量,最后汇集到一个超级汇点上.做一遍最 ...