Lucene.net入门学习(结合盘古分词)

 

Lucene简介

Lucene是apache软件基金会4 jakarta项目组的一个子项目,是一个开放源代码的全文检索引擎工具包,即它不是一个完整的全文检索引擎,而是一个全文检索引擎的架构,提供了完整的查询引擎和索引引擎,部分文本分析引擎(英文与德文两种西方语言)。Lucene的目的是为软件开发人员提供一个简单易用的工具包,以方便的在目标系统中实现全文检索的功能,或者是以此为基础建立起完整的全文检索引擎。

Lucene.net简介

Lucene.net是Lucene的.net移植版本,是一个开源的全文检索引擎开发包,即它不是一个完整的全文检索引擎,而是一个全文检索引擎的架构,提供了完整的查询引擎和索引引擎。开发人员可以基于Lucene.net实现全文检索的功能。

Lucene.net工作原理

Lucene.net提供的服务需要两部分:索引文件的写入和索引文件的读取。

1写入流程
源数据字符串经过analyzer处理,将源中需要搜索的信息加入Document的各个字段中,并把需要索引的字段起来并存储。
将索引写入存储器,存储器可以是内存或磁盘。

2读出流程
用户提供搜索关键词,经过analyzer处理。(我们下面代码采用的是盘古分词 ,其相关分词原理 可以再它的官网上可以看到 http://pangusegment.codeplex.com/
对处理后的关键词搜索索引找出对应的Document,用户根据需要从找到的Document中提取需要的Field。

Lucene.net安装

大家可以去官网看下:https://www.nuget.org/packages/Lucene.Net/3.0.3

盘古分词安装

盘古分词主页:http://pangusegment.codeplex.com/

下载:http://pangusegment.codeplex.com/downloads/get/144143

Lucene.net结合盘古分词使用

http://pangusegment.codeplex.com/downloads/get/144145

大家可以看到相关使用的案列

Lucene.net创建索引(结合盘古分词)

    /*code 释迦苦僧*/
class Program
{
static void Main(string[] args)
{
Stopwatch sw = new Stopwatch();//加入时间统计
//获取 数据列表
PostBll bll = new PostBll();
IList<PostInfo> posts = bll.GetAllPost();
Console.WriteLine(posts.Count);
//创建Lucene索引文件
string IndexDic = @"D:\Lucene\post\";
sw.Start();
IndexWriter writer = new IndexWriter(FSDirectory.Open(IndexDic), new PanGuAnalyzer(), true, IndexWriter.MaxFieldLength.LIMITED);
foreach (PostInfo item in posts)
{
Document doc = new Document();
Field postid = new Field("PostId", item.PostId.ToString(), Field.Store.YES, Field.Index.ANALYZED, Field.TermVector.NO);
Field title = new Field("Title", item.Title.ToString(), Field.Store.YES, Field.Index.ANALYZED, Field.TermVector.NO);
Field postscore = new Field("PostScore", item.PostScore.ToString(), Field.Store.YES, Field.Index.ANALYZED, Field.TermVector.NO);
doc.Add(postid);
doc.Add(title);
doc.Add(postscore);
writer.AddDocument(doc);
}
writer.Optimize();
writer.Commit();
sw.Stop();
Console.Write("建立" + posts.Count + "索引,花费: " + sw.Elapsed);
Console.ReadLine();
}
}

如代码所示:
D:\Lucene\post\ 存储Lucene.net生成的索引文件,如下图

这些索引存储文件存储了PostInfo表中 PostId,Title,PostScore 三个字段信息。

需要注意的是:使用盘古分词操作时,需要将PanGu.xml和盘古分词自带的分词文件放入项目中,如下图:

Lucene.net执行搜索(结合盘古分词)

namespace LuceneNetStudy.Search
{
/*code 释迦苦僧*/
public partial class MainForm : Form
{
private string IndexDic = @"D:\Lucene\post\"; public MainForm()
{
InitializeComponent();
} private void btnSearch_Click(object sender, EventArgs e)
{
/*开启搜索用的后台线程*/
BackgroundWorker backWorker = new BackgroundWorker();
backWorker.DoWork += new DoWorkEventHandler(backWorker_DoWork);
backWorker.RunWorkerAsync(txtKey.Text.Trim());
} void backWorker_DoWork(object sender, DoWorkEventArgs e)
{
string key = e.Argument as string; List<PostInfo> result = new List<PostInfo>();
/*加入时间统计*/
Stopwatch sw = new Stopwatch();
sw.Start(); /*创建 Lucene.net 搜索实例*/
IndexSearcher search = new IndexSearcher(FSDirectory.Open(IndexDic), true); /*为搜索实例 加入搜索分词规则 来源 盘古分词*/
key = GetKeyWordsSplitBySpace(key, new PanGuTokenizer());
BooleanQuery bq = new BooleanQuery();
if (!string.IsNullOrEmpty(key))
{
/*如果搜索关键字不为空 知道关键字搜索列为Title*/
QueryParser queryParser = new MultiFieldQueryParser(Lucene.Net.Util.Version.LUCENE_30, new string[] { "Title" }, new PanGuAnalyzer());
Query query = queryParser.Parse(key);
bq.Add(query, Occur.MUST);
} /*指定排序方式 按 PostScore 字段来排序*/
List<SortField> sorts = new List<SortField>();
SortField sf = new SortField("PostScore", SortField.DOUBLE, true);
sorts.Add(sf);
Sort sort = new Sort(sorts.ToArray());
TopFieldDocs docs = search.Search(bq, null, search.MaxDoc, sort);
int allCount = docs.TotalHits;
/*获取匹配的前10条*/
ScoreDoc[] hits = TopDocs(0, 10, docs);
foreach (ScoreDoc sd in hits)//遍历搜索到的结果
{
try
{
Document doc = search.Doc(sd.Doc);
var model = new PostInfo();
model.PostId = Guid.Parse(doc.Get("PostId"));
model.PostScore = double.Parse(doc.Get("PostScore"));
model.Title = doc.Get("Title");
result.Add(model);
}
catch
{ }
}
search.Close();
search.Dispose();
sw.Stop();
if (result != null)
{
Invoke(new MethodInvoker(delegate()
{
lblRunTime.Text = "花费: " + sw.Elapsed; txtResult.Text = "";
foreach (PostInfo info in result)//遍历搜索到的结果
{
txtResult.Text += info.PostScore + "\t" + info.Title + "\r\n";
}
}));
}
} public static ScoreDoc[] TopDocs(int start, int limit, TopFieldDocs docs)
{
int endIndex = 0;
int hc = docs.TotalHits;
if (hc - start > limit)
{
endIndex = start + limit;
}
else
{
endIndex = hc;
} List<ScoreDoc> dl = new List<ScoreDoc>();
var da = docs.ScoreDocs;
for (int i = start; i < endIndex; i++)
{
dl.Add(da[i]);
}
return dl.ToArray();
} static public string GetKeyWordsSplitBySpace(string keywords, PanGuTokenizer ktTokenizer)
{
StringBuilder result = new StringBuilder();
/*执行分词操作 一个关键字可以拆分为多个次和单个字*/
ICollection<WordInfo> words = ktTokenizer.SegmentToWordInfos(keywords); foreach (WordInfo word in words)
{
if (word == null)
{
continue;
} result.AppendFormat("{0} ", word.Word);
} return result.ToString().Trim();
}
}
}

这是咱这两天的学习成果,研究还不是很透彻,希望能给大家带来些了解,点个赞吧。

作者:释迦苦僧  出处:http://www.cnblogs.com/woxpp/p/3972233.html  本文版权归作者和博客园共有,欢迎转载,但未经作者同意必须保留此段声明,且在文章页面明显位置给出原文连接。

Lucene.net入门学习的更多相关文章

  1. Lucene.net入门学习系列(2)

    Lucene.net入门学习系列(2) Lucene.net入门学习系列(1)-分词 Lucene.net入门学习系列(2)-创建索引 Lucene.net入门学习系列(3)-全文检索 在使用Luce ...

  2. Lucene.net入门学习系列(1)

    Lucene.net入门学习系列(1)   Lucene.net入门学习系列(1)-分词 Lucene.net入门学习系列(2)-创建索引 Lucene.net入门学习系列(3)-全文检索 这几天在公 ...

  3. Lucene.net入门学习(结合盘古分词)

    Lucene简介 Lucene是apache软件基金会4 jakarta项目组的一个子项目,是一个开放源代码的全文检索引擎工具包,即它不是一个完整的全文检索引擎,而是一个全文检索引擎的架构,提供了完整 ...

  4. Lucene.net入门学习(结合盘古分词)(转载)

    作者:释迦苦僧  出处:http://www.cnblogs.com/woxpp/p/3972233.html  本文版权归作者和博客园共有,欢迎转载,但未经作者同意必须保留此段声明,且在文章页面明显 ...

  5. 【转载】Lucene.Net入门教程及示例

    本人看到这篇非常不错的Lucene.Net入门基础教程,就转载分享一下给大家来学习,希望大家在工作实践中可以用到. 一.简单的例子 //索引Private void Index(){    Index ...

  6. Elasticsearch7.X 入门学习第五课笔记---- - Mapping设定介绍

    原文:Elasticsearch7.X 入门学习第五课笔记---- - Mapping设定介绍 版权声明:本文为博主原创文章,遵循CC 4.0 BY-SA版权协议,转载请附上原文出处链接和本声明. 本 ...

  7. Elasticsearch7.X 入门学习第一课笔记----基本概念

    原文:Elasticsearch7.X 入门学习第一课笔记----基本概念 版权声明:本文为博主原创文章,遵循CC 4.0 BY-SA版权协议,转载请附上原文出处链接和本声明. 本文链接:https: ...

  8. vue入门学习(基础篇)

    vue入门学习总结: vue的一个组件包括三部分:template.style.script. vue的数据在data中定义使用. 数据渲染指令:v-text.v-html.{{}}. 隐藏未编译的标 ...

  9. Hadoop入门学习笔记---part4

    紧接着<Hadoop入门学习笔记---part3>中的继续了解如何用java在程序中操作HDFS. 众所周知,对文件的操作无非是创建,查看,下载,删除.下面我们就开始应用java程序进行操 ...

随机推荐

  1. hexo 部署至Git遇到的坑

    查找资料的时候发现了next这个博客主题,next!非常的漂亮,顺手查看了hexo的相关部署. Hexo官方介绍 Hexo 是一个快速.简洁且高效的博客框架.Hexo 使用 Markdown(或其他渲 ...

  2. hdu 1316 How Many Fibs? (模拟高精度)

    题目大意: 问[s,e]之间有多少个 斐波那契数. 思路分析: 直接模拟高精度字符串的加法和大小的比較. 注意wa点再 s 能够从 0 開始 那么要在推断输入结束的时候注意一下. #include & ...

  3. Linux命令行下载文件百度云盘

    本来想直接使用wget去下载.但百度似乎增加限制,下半停产,不就不再下.刚刚好找其他方法.另辟蹊径: http://oott123.github.io/bpcs_uploader/ 版权声明:本文博客 ...

  4. SyntaxHighlighter代码高亮插件

    SyntaxHighlighter它是Google Code在一个开源项目,主要用于对代码着色页, 使用十分方便,效果也不错,并且差点儿支持常见的全部语言. 使用步骤: 一.下载并解压缩SyntaxH ...

  5. Swift——(三)Swift神奇的下划线

    在Swift在.有许多神奇的下划线,在这里,我们将看到神奇的汇总,我希望能够帮助其他很多学习Swift朋友. @Author: twlkyao转载或者引用请保留此行. 1.格式化数字字面量     通 ...

  6. Nyoj 虚拟的城市之旅(bfs)

    描述   展馆是未来城市的缩影,个人体验和互动是不变的主题.在A国展馆通过多维模式和高科技手段,引领参观者在展示空间踏上一段虚拟的城市之旅. 梦幻国有N个城市和M条道路,每条道路连接某两个城市.任意两 ...

  7. HBase写的初步测试中的表现

    底 第四年HBase.在上线的机HBase集群做一个初步的测试写入性能.下面具体说明做测试内容. 说明 HBase周围环境 0.96版本号,8台region server.默认配置 写数据说明 单co ...

  8. hdu Color the ball

    题目链接:http://acm.hdu.edu.cn/showproblem.php?pid=1556 树状数组的  update的应用,逆序更新 代码: #include <stdio.h&g ...

  9. HDU 2616 Kill the monster (暴力搜索 || 终极全阵列暴力)

    主题链接:HDU 2616 Kill the monster 意甲冠军:有N技能比赛HP有M怪物,技能(A,M),能伤害为A.当怪兽HP<=M时伤害为2*A. 求打死怪兽(HP<=0)用的 ...

  10. java_代码注释风格

    <?xml version="1.0" encoding="UTF-8" standalone="no"?><templa ...