初始化

$hosts = array('192.168.30.41');
$this->client = \Elasticsearch\ClientBuilder::create()->setHosts($hosts)->build();

新建和设置index

    $params = [
'index' => 'order',
'body' => [
'settings' => [
'max_result_window' => 10000000 #由于默认只能读取前10000条数据,这里设置为100w,但是代价就是分页越靠后,效率越低。也可以使用scan解决
],
'mappings' => [
'goods' => [
'_source' => [
'enabled' => true
],
'properties' => [
'product_code' => [
'type'=>'string',
'store'=>'yes',
'fielddata'=>true,
'fields'=>[
'raw'=>[ #由于需要按照这个字段分组统计,且不能进行分词,固这样配置。统计时字段需要写为 product_code.raw
'type'=>'string',
'index'=>'not_analyzed'
]
]
],
'order_id'=>[
'fielddata'=>true,
'type'=>'string'
],
'price'=>[
'type'=>'double'
],
'num'=>[
'type'=>'integer'
],
'pay_time'=>[
'type'=>'date',
'format'=>'yyyy-MM-dd HH:mm:ss'
],
'take_province'=>[
'type'=>'string',
'fielddata'=>true,
'store'=>'yes',
'fields'=>[
'raw'=>[
'type'=>'string',
'index'=>'not_analyzed'
]
]
],
'buyer_nike'=>[
'type'=>'string',
'fielddata'=>true
]
]
]
]
]
];
$response = $this->client->indices()->create($params);

插入数据(这里引用了官方文档的例子,大数据导入不使用insert,而使用更为效率的bulk)

$params = ['body' => []];

for ($i = 1; $i <= 1234567; $i++) {
$params['body'][] = [
'index' => [
'_index' => 'my_index',
'_type' => 'my_type',
'_id' => $i
]
]; $params['body'][] = [
'my_field' => 'my_value',
'second_field' => 'some more values'
]; // Every 1000 documents stop and send the bulk request
if ($i % 1000 == 0) {
$responses = $client->bulk($params); // erase the old bulk request
$params = ['body' => []]; // unset the bulk response when you are done to save memory
unset($responses);
}
} // Send the last batch if it exists
if (!empty($params['body'])) {
$responses = $client->bulk($params);
}

相关查询

1、查询某商品某时间段内订单数、售卖总数和总价格

#where product_code="xxx" and pay_time BETWEEN "2017-01-01 00:00:00" AND "2017-01-31 23:59:59"
$params = [
'index' => 'order',
'type' => 'goods',
'body' => [
'size' => 1,
'query' => [
"bool"=>[
"must"=>[
"term"=>["product_code.raw"=>$code] #上面解释过了,这里采用不分词的统计,使用字段.raw
],
"filter"=>[
"range"=>[
"pay_time"=>[
"gte"=>$start_time,
"lte"=>$end_time
]
]
]
]
],
'aggs' => [
'sum_this_product'=>['sum'=>['field'=>"num"]], #售卖总数量,sum累加
'total_price'=>['sum'=>['field'=>"price"]], #总价格
'distinct_orderid'=>['cardinality'=>['field'=>'order_id']] #去重订单数
]
]
];
$response = $this->client->search($params);

2、统计某时间段所有商品的订单数、售卖总数和总价格

#where pay_time BETWEEN "2017-01-01 00:00:00" AND "2017-01-31 23:59:59"
$params = [
'index' => 'order',
'type' => 'goods',
'body' => [
'size' => 0,
'query' => [
"bool"=>[
"filter"=>[
"range"=>[
"pay_time"=>[
"gte"=>$start_time,
"lte"=>$end_time
]
]
]
]
],
'aggs' => [
'num'=>[
'terms'=>[
'field'=>'product_code.raw',
'size'=>100,
'order'=>['sum_this_product'=>'desc'] #根据统计出来的售卖总数排序
],
'aggs'=>[
'sum_this_product'=>['sum'=>['field'=>'num']],
'total_this_product'=>['sum'=>['field'=>'price']],
'distinct_orderid'=>['cardinality'=>['field'=>'order_id']]
]
]
]
]
];
$response = $this->client->search($params);

唠叨:

1、这次使用的是docker环境,使用阿里镜像:https://dev.aliyun.com/detail.html?spm=5176.1972343.2.21.F0KOV2&repoId=1209

2、官方文档:https://www.elastic.co/guide/en/elasticsearch/client/php-api/current/index.html

3、本次工作数据量大约1500w,需要复杂的统计和展现,mysql已经不能满足,故使用es。但是es不支持类似mysql:select in select这样的子查询,着实折腾了不少时间

4、感谢一位大神的博客:https://segmentfault.com/a/1190000004433446,这是个文章系列,很值得参考。

记录一次elasticsearch-php工作过程的更多相关文章

  1. Elasticsearch 的坑爹事——记录一次mapping field修改过程

    Elasticsearch 的坑爹事 本文记录一次Elasticsearch mapping field修改过程 团队使用Elasticsearch做日志的分类检索分析服务,使用了类似如下的_mapp ...

  2. Elasticsearch 的坑爹事——记录一次mapping field修改过程(转)

    原文:http://www.cnblogs.com/Creator/p/3722408.html 本文记录一次Elasticsearch mapping field修改过程 团队使用Elasticse ...

  3. (转)Elasticsearch 的坑爹事——记录一次mapping field修改过程

    Elasticsearch 的坑爹事 本文记录一次Elasticsearch mapping field修改过程 团队使用Elasticsearch做日志的分类检索分析服务,使用了类似如下的_mapp ...

  4. Nginx reopen reload作用及工作过程

    http://www.iigrowing.cn/nginx-reopen-reload-zuo-yong-ji-gong-zuo-guo-cheng.html Nginx reopen reload作 ...

  5. 【Canal源码分析】parser工作过程

    本文主要分析的部分是instance启动时,parser的一个启动和工作过程.主要关注的是AbstractEventParser的start()方法中的parseThread. 一.序列图 二.源码分 ...

  6. TCP工作过程;TCP Flood的攻击的原理和现象;TCP协议设计的安全隐患与防范对策

    TCP分三个阶段 连接建立(三次握手) 数据传输 连接释放(四次挥手) TCP工作过程 TCP连接建立阶段 第一次握手:Client将标志位SYN置为1,随机产生一个值seq=J,并将该数据包发送给S ...

  7. ARP工作过程、ARP欺骗的原理和现象、如何防范ARP欺骗

      地址解析协议(Address Resolution Protocol,ARP)是在仅知道主机的IP地址时确定其物理地址的一种协议. 下面假设在一个局域网内,主机A要向主机B发送IP数据报. ARP ...

  8. 【Canal源码分析】client工作过程

    client的工作过程,需要我们自己去编写对应的逻辑,我们目前只能从example写的例子来看.目前examle中提供了两个例子,一个是单机的,一个是集群的cluster,我们后续如果需要进行开发的话 ...

  9. 【流媒体】UPnP的工作过程

    UPnP简介 通用即插即用(英语:Universal Plug and Play,简称UPnP)是由“通用即插即用论坛”(UPnP™ Forum)推广的一套网络协议. 该协议的目标是使家庭网络(数据共 ...

  10. MapReduce程序的工作过程

    转自:http://www.aboutyun.com/thread-15494-1-2.html 问题导读1.HDFS框架组成是什么?2.HDFS文件的读写过程是什么?3.MapReduce框架组成是 ...

随机推荐

  1. Visual Studio 2017 插件扩展

    “工具善其事,必先利其器!装好这些插件让vs更上一层楼” ReSharper : 首先的是Resharper,这个基本是目前是我开发过程中必备的工具集,唯一的缺点就是吃内存,所以你的内存要是低于8G, ...

  2. Mock session,cookie,querystring in ASB.NET MVC

    写测试用例的时候经常发现,所写的功能需要Http上下文的支持(session,cookie)这类的. 以下介绍2种应用场景. 用于控制器内Requet获取参数 控制器内的Requet其实是控制器内的属 ...

  3. EF数据库优先模式(二)

    接着上一节的内容,建立好EF数据模型(DataFirst)之后,创建一个借口类,将公用的借口放到接口类里面 public interface IObjectLoader<T,TM> {  ...

  4. git命令(持续更新)

    将远程仓库中的代码下载到本地仓库:git clone git仓库地址 将本地仓库中修改的文件提交到远程仓库:git push -u origin master 将当前目录添加到本地仓库,.表示当前目录 ...

  5. hadoop的namenode启动失败

    1.jps发现namenode启动失败 每次开机都要重新格式化一下namenode才可以 其实问题出现自tmp文件上,因为每次开机就会被清空,所以现在我们配置一个tmp文件目录. 如果之前没有配置过, ...

  6. python-访问者模式

    源码地址:https://github.com/weilanhanf/PythonDesignPatterns 说明: 访问者模式的基本想法是,软件系统中拥有一个由许多对象构成的.比较稳定的对象结构, ...

  7. css翻译名词术语

    原文 本书译法 其它译法(未采用) CSS - 层叠样式表.级联样式表.样式单 cascade 层叠(机制) 级联 fallback 回退(机制.措施.方案) 后备.回落.降级 selector 选择 ...

  8. Chrome Extension 实战

    想起个问题,线上项目js要有bug,怎么进行调试修改. ------------- 想起来,方法应该是,拦截线上的js的请求,转到本地代码上进行调试... ------------- 网上看到 Chr ...

  9. php api 接口输出json 数据

    页面调用接口,简单写个api 试试 如下 <?php $arr = array( array('url'=>'https://baidu.com'), array('map'=>'h ...

  10. MySql 利用mysql&mysqldum导入导出数据

    MySql 利用mysql&mysqldum导入导出数据 by:授客 QQ:1033553122   测试环境 Linux下测试,数据库MySql 工具 mysqldump,该命令位于mysq ...