1、字段

  Filed:<field name="_id" type="text_ik" indexed="true" stored="true" required="true" multiValued="false" />

    name:字段名

    type:字段类型,影响分词结果

    indexed:是否需要索引

    stored:是否需要存储

    required:是否唯一

    multiValued:是否多值,对于copyField字段有效

  dynamicField:动态字段 <dynamicField name="bd01010*" type="text_ik"    indexed="true"  stored="true"  multiValued="true"/>

    如:{"_id":"change.me","bd01003":"美好的生活,未来","bd01010.0.text":"你好,计算机能力","bd01010.1.text":"生活","bd01007":"清华大学出版社"}

    建立索引之后,如下

 {
"responseHeader": {
"status": 0,
"QTime": 3,
"params": {
"lowercaseOperators": "true",
"bq": "bd01test^2",
"fl": "score,_id,bd01003,bd01010*,bd01007,bd01keyword",
"indent": "true",
"qf": "bd01keyword",
"_": "1469434764614",
"q.alt": "bd01keyword:计算机",
"stopwords": "true",
"wt": "json",
"defType": "edismax"
}
},
"response": {
"numFound": 2,
"start": 0,
"maxScore": 0.09362577,
"docs": [
{
"_id": "change.me2",
"bd01003": "计算机",
"bd01010.0.text": [
"你好,能力"
],
"bd01010.1.text": [
"生活"
],
"bd01007": "清华大学出版社",
"score": 0.09362577
},
{
"_id": "change.me",
"bd01003": "美好的生活,未来",
"bd01010.0.text": [
"你好,计算机能力"
],
"bd01010.1.text": [
"生活"
],
"bd01007": "清华大学出版社",
"score": 0.06553804
}
]
}
}

  copyField:字段组合 ,如下

    <copyField source="bd01010*" dest="bd01test"/>
<copyField source="bd01test" dest="bd01keyword"/>
<copyField source="bd01003" dest="bd01keyword"/>
<copyField source="bd01007" dest="bd01keyword"/

  如果想对上面的dynamicField字段进行查询,====》bd01test:计算机

  如果想对上面的dynamicField字段+其它字段进行查询,====》bd01keyword:计算机

2、edismax

  q.alt: 当q字段为空时,用于设置缺省的query,通常设置q.alt为*:*。 如q.alt = title:计算机

  qf:query fields,指定solr从哪些field中搜索。 如qf=title

  mm: Minimum ‘Should’ Match。 Solr支持三种查询clause,即“必须出现”, “不能出现”和“可以出现”,分别对应于AND, -, OR

  pf: boosting phrases over words。用于指定一组field,当query完全匹配pf指定的某一个field时,来进行boost,给搜索匹配到的字段打分  如pf =字段1^0.5 字段2^0.2  

  ps: Phrase Slop. 短语坡度。短语查询的坡度量用在pf字段,影响boost。

  qs:Query Phrase Slop。查询短语坡度。查询短语坡度是指短语查询明确包含用户查询的字符串(在qf字段,影响匹配)。

  tie:tie breaker。float值作为决胜局中DisjunctionMaxQueries使用(应该是远小于1)。

  bq: Boost Query。对某个field的value进行boost,例如brand:xq^5.0。

  bf :Boost Functions。用函数的方式计算boost。

  uf:User Fields。用户字段。制定模式的字段可以被用户显示的查询。此参数支持通配符。

  pf2:Phrase bigram fields。短语两字母字段。e.g. “the brown fox jumped” is queried as “the brown” “brown fox” “fox jumped”。

  pf3:Phrase trigram fields。短语三字母字段。e.g. “the brown fox jumped” is queried as “the brown fox” “brown fox jumped”。

  ps2:短语两字母坡度。如果未指定,将使用”ps”。

  ps3:短语三字母坡度。如果未指定,将使用”ps”。

  boostBoost Function, multiplicative。作为bf,score=bf*score。bf =sum(div(字段,100),1),

  stopwords:单词停用,true 或false。

  lowercaseOperators:此参数用于控制小写单词作为布尔运算符,如”and” and “or”。设置与lowercaseOperators= true来允许此。默认为true。

  

3、solr 函数

  bf、boost 里都可以写权重的函数

  div(字段,100):表示 字段的值/100 得到一个新值

  pow(字段,2):表示 字段的值的2次方   得到一个新值

  linear(x,2,4) 表示  2*x+4

     sqrt(x) 表示 X的平方根

   boost = sum(div(字段,100),1), 设 a=字段值  ,则 权重 =权重*(a/100+1);

图:未使用权重的结果

            图:使用了权重之后的结果

  

1、constant:支持有小数点的常量,

例如,1.5,查询表达式就是:_val_:1.5

2、fieldvalue,这个函数将会返回numeric field的值,这个域必须是indexd的,非multiValued的。格式很简单,就是该域的名字。如果这个域中没有这样的值,那么将会返回0。

3、ord,对于一个域,它所有的值都将会按照字典顺序排列,这个函数返回你要查询的那个特定的值在这个顺序中的排名。这个域,必须是非multiValued的,当没有值存在的时候,将返回0。

例如:某个特定的域只能去三个值,“apple”、“banana”、“pear”,那么ord(“apple”)=1,ord(“banana”)=2,ord(“pear”)=3.

需要注意的是,ord()这个函数,依赖于值在索引中的位置,所以当有文档被删除、或者添加的时候,ord()的值就会发生变化。当你使用MultiSearcher的时候,这个值也就是不定的了。

4、rord,这个函数将会返回与ord相对应的倒排序的排名。

格式: rord(myIndexedField).

5、sum,这个函数的意思就显而易见啦,它就是表示“和”。

格式:sum(x,1)

sum(x,y)

sum(sqrt(x),log(y),z,0.5)

6、product,product(x,y,...)将会返回多个函数的乘积。

格式:product(x,2)

product(x,y)

7、div,div(x,y)表示x除以y的值

格式:div(1,x)

div(sum(x,100),max(y,1))

8、pow,pow表示幂值。pow(x,y) =x^y。

格式:pow(x,0.5) 表示开方

pow(x,log(y))

9、abs,abs(x)将返回表达式的绝对值

格式:abs(-5)

abs(x)

10、log,log(x)将会返回基数为10,x的对数

格式: log(x)

log(sum(x,100))

11、sqrt,sqrt(x) 返回 一个数的平方根

格式:sqrt(2)

sqrt(sum(x,100))

12、map,如果 min<=x<=max,那么map(x,min,max,target)=target,如果 x不在[min,max]这个区间内,那么map(x,min,max,target)=x.

格式:map(x,0,0,1)

13、scale,scale(x,minTarget,maxTarget) 这个函数将会把x的值限制在[minTarget,maxTarget]范围内。

14、query,query(subquery,default)将会返回给定subquery的分数,如果subquery与文档不匹配,那么将会返回默认值。任何的查询类型都是受支持的。可以通过引用的方式,也可以直接指定查询串。

例子:q=product(popularity, query({!dismax v='solr rocks'})) 将会返回popularity和通过dismax 查询得到的分数的乘积。

q=product(popularity, query($qq)&qq={!dismax}solr rocks) 跟上一个例子的效果是一样的。不过这里使用的是引用的方式

q=product(popularity, query($qq,0.1)&qq={!dismax}solr rocks) 在前一个例子的基础上又加了一个默认值。

15、linear,linear(x,m,c)表示 m*x+c ,其中m和c都是常量,x是一个变量也可以是一个函数。

例如:linear(x,2,4)=2*x+4.

16、recip,recip(x,m,a,b)=a/(m*x+b),其中,m、a、b是常量,x是变量或者一个函数。当a=b,并且x>=0的时候,这个函数的最大值是1,值的大小随着x的增大而减小。

例如:recip(rord(creationDate),1,1000,1000)

17、max,max(x,c)将会返回一个函数和一个常量之间的最大值。

例如:max(myfield,0)

  4、autoCommint 和autoSoftCommint

  在很多情况下,我们并不想自己主动触发COMMIT相应的XML给SOLR,这样带来很多的不便(例如频繁commit,会带来性能上较大的消耗),恰 好,SOLR通过配置文件可以自行在满足指定的条件下自动的COMMIT索引,同时,让前端检索实例可以检索到最新生成的数据,而不需要人为干预。

     <requestHandler name="/update" class="solr.XmlUpdateRequestHandler">
<maxPendingDeletes>10000</maxPendingDeletes>
<autoCommit>
<maxDocs>20</maxDocs>
<maxTime>${solr.autoCommit.maxTime:15000}</maxTime>
6        <openSearcher>true</openSearcher>
</autoCommit>
</requestHandler>

  上 面autoCommit中的maxDocs指定的pending多少个文档后执行一次commit,而maxTime指定了多长时间间隔进行一次 commit,一般这两个选项只需要配置一个即可满足需要。另外,每次commit会将最近的更新生效,但是如果一次commit操作尚未完成,又达到了 下一次commit的时刻,这样做会严重影响索引的吞吐量。

  自动硬提交方式:maxTime:设置多长时间提交一次maxDocs:设置达到多少文档提交一次openSearcher:文档提交后是否开启新的searcher,
如果false,文档只是提交到index索引库,搜索结果中搜不到此次提交的文档;如果true,既提交到index索引库,也能在搜索结果中搜到此次提交的内容。

在Solr 4.0将会实现一种基于“软自动提交”(soft auto commit)的功能,它会根据当前的系统上下文决定是否提交(简单的情况就是,确保每次commit完成,也就是最近的索引数据更新已经更新同步到磁盘上之后再自动执行下一次commit)

     <autoSoftCommit>
<maxTime>${solr.autoSoftCommit.maxTime:1800000}</maxTime>
<maxDocs>100</maxDocs>
</autoSoftCommit>

  5、Solr与mysql 增量索引同步

  1.在进行增量索引前,首先要弄懂几个必要的属性,以及数据库建表事项,和 deltaimport.properties,dataimport.properties, data-config.xml里面的数据
     transformer 格式转化:HTMLStripTransformer 索引中忽略HTML标签
     query:查询数据库表符合记录数据 
         deltaQuery:增量索引查询主键ID     注意这个只能返回ID字段 
     deltaImportQuery:增量索引查询导入数据 
     deletedPkQuery:增量索引删除主键ID查询  ---> 注意这个只能返回ID字段 
         数据库配置注意事项 
    1.如果只涉及添加,与修改业务,那么数据库里只需额外有一个timpstamp字段 
      就可以了,默认值为当前系统时间,CURRENT_TIMESTAMP(笔者的数据为mysql的) 
    2.如果还涉及删除业务,那么数据里就需额外再多添加一个字段isdelete,int类型的 
      用0,1来标识,此条记录是否被删除,当然也可以用其他字段标识,ture或false都可以

   deltaimport.properties,dataimport.properties
     这个配置文件很重要,它是用来记录当前时间与上一次修改时间的,通过它能够找出,那些,新添加的,修改的,或删除的记录
                           
 

  

  clean:选择是否要在索引开始构建之前删除之前的索引,默认为true

  commit:选择是否在索引完成之后提交。默认为true

  optimize:是否在索引完成之后对索引进行优化。默认为true

  debug:是否以调试模式运行,适用于交互式开发(interactive development mode)之中。

 新增collections1/conf/data-config.xml文件 

 <dataConfig>
<dataSource type="JdbcDataSource" driver="com.mysql.jdbc.Driver" url="jdbc:mysql://192.168.0.121:3306/test" user="root" password="ttestO" batchSize="-1" />
<document name="content">
<entity pk="bd01001" name="bd01"
query="select bd01001,bd01002,bd01003,bd01004,bd01005,bd01006 from `bd01`"
deltaQuery="select bd01001 from bd01 where bd01996 > '${dataimporter.last_index_time}'"
deletedPkQuery="select bd01001 from bd01 where bd01997=1"
deltaImportQuery="select bd01001,bd01002,bd01003,bd01004,bd01005,bd01006 from bd01 where bd01001='${dataimporter.delta.bd01001}'">
<field column="bd01001" name="_id"/>
<field column="bd01002" name="bd01002" />
<field column="bd01003" name="bd01003" />
<field column="bd01004" name="bd01004" />
<field column="bd01005" name="bd01005"/>
<field column="bd01006" name="bd01006" />
</entity>
</document> </dataConfig>

  下面分别来介绍属性:

   entity.pk="bd01001"  数据表的主键ID

   全量导入:

     query="select * from bd01 where isdelete=0  查询是指 查询出表里所有未删除的数据进行全量导入建索引

   增量索引

     添加、修改 索引

     deltaQuery="select bd01001 from bd01 where isDelete = 0 and  my_date > '${dataimporter.last_index_time}'"

     deltaQuery的意思是,查询出所有经过修改的记录的ID 可能是修改操作,添加操作,删除操作产生的 (此查询只对增量导入起作用,而且只能返回ID值)

     deltaImportQuery="select * from bd01 where ID='${dataimporter.delta.bd01001}'" 次查询是获取以上两步的ID,然后把其全部数据获取,根据获取的数据 对索引库进行更新操作,可能是添加,修改 (此查询只对增量导入起作用)

     删除索引

         deletedPkQuery="select ID from bd01 where isdelete=1" 此操作值查询那些数据库里伪删除的数据的ID(即isdelete标识为1的数据) solr通过它来删除索引里面对应的数据 (此查询只对增量导入起作用,而且只能返回ID值)

  6、增量索引定时同步更新

    1. 将 apache-solr-dataimportscheduler-1.0.jar 和solr自带的
apache-solr-dataimporthandler-.jar,
apache-solr-dataimporthandler-extras-.jar 放到solr.war的lib目录下面

     2.修改solr.war中WEB-INF/web.xml, 在servlet节点前面增加:

 <listener>
<listener-class>
        org.apache.solr.handler.dataimport.scheduler.ApplicationListener
</listener-class>
</listener>

    3.将apache-solr-dataimportscheduler-.jar 中 dataimport.properties 取出并根据实际情况修改,然后放到 solr.home/conf (不是solr.home/core/conf) 目录下面

  

 #################################################
# #
# dataimport scheduler properties #
# #
################################################# # to sync or not to sync
# 1 - active; anything else - inactive
syncEnabled=1 # which cores to schedule
# in a multi-core environment you can decide which cores you want syncronized
# leave empty or comment it out if using single-core deployment
syncCores=collection1 # solr server name or IP address
# [defaults to localhost if empty]
server=localhost # solr server port
# [defaults to 80 if empty]
port=8080 # application name/context
# [defaults to current ServletContextListener's context (app) name]
webapp=solr # URL params [mandatory]
# remainder of URL
#增量
params=/dataimport?command=delta-import&clean=false&commit=true&wt=json&indent=true&optimize=false # schedule interval
# number of minutes between two runs
# [defaults to 30 if empty]
interval=1 # 重做索引的时间间隔,单位分钟,默认7200,即1天;
# 为空,为0,或者注释掉:表示永不重做索引
reBuildIndexInterval=0 # 重做索引的参数
#reBuildIndexParams=/dataimportUserFull?command=full-import&clean=true&commit=true&optimize=true&wt=json&indent=true&entity=zpxx&verbose=false&debug=false
reBuildIndexParams=/dataimport?command=full-import&indent=true&wt=json&_=1469693722233423
# 重做索引时间间隔的计时开始时间,第一次真正执行的时间=reBuildIndexBeginTime+reBuildIndexInterval*60*1000;
# 两种格式:2012-04-11 03:10:00 或者 03:10:00,后一种会自动补全日期部分为服务启动时的日期
reBuildIndexBeginTime=16:06:30

Solr 多字段、打分规则、权重和实时索引同步的更多相关文章

  1. Solr搜索的排序打分规则探讨

    使用Solr搭建搜索引擎很容易,但是如何制定合理的打分规则(boost)做排序却是一个很头痛的事情.Solr本身的排序打分规则是继承自Lucene的文本相关度的打分即boost,这一套算法对于通用的提 ...

  2. Lucene打分规则与Similarity模块详解

    搜索排序结果的控制 Lucnen作为搜索引擎中,应用最为广泛和成功的开源框架,它对搜索结果的排序,有一套十分完整的机制来控制:但我们控制搜索结果排序的目的永远只有一个,那就是信息过滤,让用户快速,准确 ...

  3. JEECG 不同(角色的)人对同样的字段数据,使用不同的字段验证规则

    JEECG智能开发平台v3 开发指南http://www.jeecg.org/book/jeecg_v3.html jeecg: JEECG是一款基于代码生成器的J2EE快速开发平台,开源界“小普元” ...

  4. m_Orchestrate learning system---十四、数据表中字段命名规则

    m_Orchestrate learning system---十四.数据表中字段命名规则 一.总结 一句话总结:a.保证唯一 b.见名知意 1.注意php中的数组类函数和字符串类函数的前缀? 数组类 ...

  5. JAVAEE——Solr:安装及配置、后台管理索引库、 使用SolrJ管理索引库、仿京东的电商搜索案例实现

    1 学习回顾 1. Lucene  是Apache开源的全文检索的工具包 创建索引 查询索引 2. 遇到问题? 文件名 及文件内容  顺序扫描法  全文检索 3. 什么是全文检索? 这种先创建索引 再 ...

  6. MySQL和MsSQL实时自动同步---SyncNavigator 数据库同步软件

    需要MySQL数据库支持的狐友们有福了,MySQL和MsSQL实时自动同步---SyncNavigator 数据库同步软件   使用SyncNavigator轻松实现数据库异地同步.断点续传.异构同步 ...

  7. MySQL数据实时增量同步到Kafka - Flume

    转载自:https://www.cnblogs.com/yucy/p/7845105.html MySQL数据实时增量同步到Kafka - Flume   写在前面的话 需求,将MySQL里的数据实时 ...

  8. 【linux运维】rsync+inotify与sersync+rsync实时数据同步笔记

    Rsync(remote sync)远程同步工具,通过rsync可以实现对远程服务器数据的增量备份通过,但rsync自身也有缺陷,同步数据时,rsync采用核心算法对远程服务器的目标文件进行对比,只进 ...

  9. Tapdata 在线研讨会:实时数据同步应用场景及实现方案探讨

    数字化时代的到来,企业业务敏捷度的提升,对传统的数据处理和可用性带来更高的要求,实时数据同步技术的发展,给基于数据的业务创新带来了更多的可能性.9月8日晚,Tapdata 联合MongoDB 中文社区 ...

随机推荐

  1. Chrome DevTools快捷键

  2. [Javascript] Automate the process of flattening deeply nested arrays using ES2019's flat method

    Among the features introduced to the language of JavaScript in ES2019 is Array.prototype.flat. In th ...

  3. ocx注册

    (1)服务器OCX注册 (2)IE浏览器,站点加入可信任站点. internet 选项->安全->可信任站点.把“对该区域中的所有站点要求服务器验证(https:)” 前面的勾去掉 (3) ...

  4. Android NDK 交叉编译C++代码生成.so共享库详细步骤

    Android NDK 交叉编译C++代码生成.so共享库详细步骤 Android NDK 调用c++ stl 模板库(修改android.mk文件) 1  在需要调用模板库的文件前包含头文件:   ...

  5. mysql中,由于JDBC连接限制了最大包长度1024B,即1KB,报错“max_allowed_packet' ”

    报错:org.springframework.dao.TransientDataAccessResourceException: PreparedStatementCallback; SQL [INS ...

  6. WebDriver API——第1部分

    The API definitions in this chapter shows the absolute location of classes. However the recommended ...

  7. 滚动锁定 scroll lock 键有什么用?

    滚动锁定 scroll lock 键有什么用? 中文名称:滚动锁定键  按下此键后在Excel等按上.下键滚动时,会锁定光标而滚动页面:如果放开此键,则按上.下键时会滚动光标而不滚动页面.      ...

  8. 运用Unity结合PolicyInjection实现拦截器[结合操作日志实例]

    上一篇文章我们通过Unity自身Unity.InterceptionExtension.IInterceptionBehavior实现一个有系统关异常日志记录:解决代码中到处充满的异常记录的代码: 本 ...

  9. JDBC数据库编程:PreparedStatement接口

    使用PreparedStatement进行数据库的更新及查询操作. PreparedStatement PreparedStatement是statement子接口.属于预处理. 使用statemen ...

  10. C语言-常用函数处理

    1.使用fgets #define SLEN 50 char str[SLEN]; fgets(str, SLEN, stdin); i = ; while (str[i] != '\n' & ...