承接上文,使用Java High Level REST Client操作elasticsearch

Bulk API

高级客户端提供了批量处理器以协助批量请求

Bulk Request

BulkRequest可以在一次请求中执行多个索引,更新或者删除操作。一次请求至少需要一个操作。

        //创建BulkRequest实例
BulkRequest request = new BulkRequest();
//使用IndexRequest添加三个文档,不清楚用法可以参考Index API
request.add(new IndexRequest("posts", "doc", "1")
.source(XContentType.JSON,"field", "foo"));
request.add(new IndexRequest("posts", "doc", "2")
.source(XContentType.JSON,"field", "bar"));
request.add(new IndexRequest("posts", "doc", "3")
.source(XContentType.JSON,"field", "baz"));

Bulk API仅支持以JSON或SMILE编码的文档。 提供任何其他格式的文档将导致错误。

同一个BulkRequest可以添加不同类型的操作。

      // 添加 DeleteRequest到BulkRequest,不清楚用法可以参考Delete API
request.add(new DeleteRequest("posts", "doc", "3"));
// 添加 UpdateRequest到BulkRequest,不清楚用法可以参考Update API
request.add(new UpdateRequest("posts", "doc", "2")
.doc(XContentType.JSON, "other", "test"));
// 添加 一个使用SMILE格式的IndexRequest
request.add(new IndexRequest("posts", "doc", "4")
.source(XContentType.SMILE, "field", "baz"));

可选参数

//设置超时,等待批处理被执行的超时时间(使用TimeValue形式)
request.timeout(TimeValue.timeValueMinutes(2));
//设置超时,等待批处理被执行的超时时间(字符串形式)
request.timeout("2m");
//刷新策略
request.setRefreshPolicy(WriteRequest.RefreshPolicy.WAIT_UNTIL);//WriteRequest.RefreshPolicy实例方式
request.setRefreshPolicy("wait_for");//字符串方式
//设置在执行索引/更新/删除操作之前必须处于活动状态的分片副本数。
request.waitForActiveShards(2);
//使用ActiveShardCount方式来提供分片副本数:可以是ActiveShardCount.ALL,ActiveShardCount.ONE或ActiveShardCount.DEFAULT(默认)
request.waitForActiveShards(ActiveShardCount.ALL);

同步执行

BulkResponse bulkResponse = client.bulk(request);

异步执行

批量请求的异步执行需要将BulkRequest实例和ActionListener实例传递给异步方法:

//当BulkRequest执行完成时,ActionListener会被调用
client.bulkAsync(request, listener);

异步方法不会阻塞并会立即返回。完成后,如果执行成功完成,则使用onResponse方法回调ActionListener,如果失败则使用onFailure方法。
BulkResponse 的典型监听器如下所示:

ActionListener<BulkResponse> listener = new ActionListener<BulkResponse>() {
@Override
public void onResponse(BulkResponse bulkResponse) {
//执行成功完成时调用。 response作为参数提供,并包含已执行的每个操作的单个结果列表。 请注意,一个或多个操作可能已失败,然而其他操作已成功执行。
} @Override
public void onFailure(Exception e) {
//在整个BulkRequest失败时调用。 在这种情况下,exception作为参数提供,并且没有执行任何操作。
}
};

Bulk Response

返回的BulkResponse包含有关已执行操作的信息,并允许迭代每个结果,如下所示:

    //遍历所有操作结果
for (BulkItemResponse bulkItemResponse : bulkResponse) {
//获取操作的响应,可以是IndexResponse,UpdateResponse或DeleteResponse,
// 它们都可以被视为DocWriteResponse实例
DocWriteResponse itemResponse = bulkItemResponse.getResponse(); if (bulkItemResponse.getOpType() == DocWriteRequest.OpType.INDEX
|| bulkItemResponse.getOpType() == DocWriteRequest.OpType.CREATE) {
//处理index操作
IndexResponse indexResponse = (IndexResponse) itemResponse; } else if (bulkItemResponse.getOpType() == DocWriteRequest.OpType.UPDATE) {
//处理update操作
UpdateResponse updateResponse = (UpdateResponse) itemResponse; } else if (bulkItemResponse.getOpType() == DocWriteRequest.OpType.DELETE) {
//处理delete操作
DeleteResponse deleteResponse = (DeleteResponse) itemResponse;
}
}

批量响应提供了用于快速检查一个或多个操作是否失败的方法:

if (bulkResponse.hasFailures()) {
//该方法只要有一个操作失败都会返回true
}

如果想要查看操作失败的原因,则需要遍历所有操作结果:

        for (BulkItemResponse bulkItemResponse : bulkResponse) {
if (bulkItemResponse.isFailed()) {//判断当前操作是否失败
//获取失败对象,拿到了failure对象,想怎么玩都行
BulkItemResponse.Failure failure = bulkItemResponse.getFailure();
}
}

Bulk Processor

BulkProcessor通过提供一个工具类来简化Bulk API的使用,允许索引/更新/删除操作在添加到处理器后透明地执行。

为了执行请求,BulkProcessor需要以下组件:

RestHighLevelClient
此客户端用于执行BulkRequest并获取BulkResponse
BulkProcessor.Listener
在每次BulkRequest执行之前和之后或BulkRequest失败时调用此监听器
然后BulkProcessor.builder方法可用于构建新的BulkProcessor:

        //创建BulkProcessor.Listener
BulkProcessor.Listener listener1 = new BulkProcessor.Listener() {
@Override
public void beforeBulk(long executionId, BulkRequest request) {
//在每次执行BulkRequest之前调用此方法
} @Override
public void afterBulk(long executionId, BulkRequest request,BulkResponse response) {
//在每次执行BulkRequest之后调用此方法
} @Override
public void afterBulk(long executionId, BulkRequest request, Throwable failure) {
//执行BulkRequest失败时调用此方法
}
};
     //通过从BulkProcessor.Builder调用build()方法来创建BulkProcessor。
     //RestHighLevelClient.bulkAsync()方法将用来执行BulkRequest。
BulkProcessor bulkProcessor = BulkProcessor.builder(client::bulkAsync, listener1).build();

BulkProcessor.Builder提供了配置BulkProcessor应如何处理请求执行的方法:

        BulkProcessor.Builder builder = BulkProcessor.builder(client::bulkAsync, listener1);
//设置何时刷新新的批量请求,根据当前已添加的操作数量(默认为1000,使用-1禁用它)
builder.setBulkActions(500);//操作数为500时就刷新请求
//设置何时刷新新的批量请求,根据当前已添加的操作大小(默认为5Mb,使用-1禁用它)
builder.setBulkSize(new ByteSizeValue(1L, ByteSizeUnit.MB));//操作大小为1M时就刷新请求
//设置允许执行的并发请求数(默认为1,使用0只允许执行单个请求)
builder.setConcurrentRequests(0);//不并发执行
//设置刷新间隔时间,如果超过了间隔时间,则随便刷新一个BulkRequest挂起(默认为未设置)
builder.setFlushInterval(TimeValue.timeValueSeconds(10L));
//设置一个最初等待1秒,最多重试3次的常量退避策略。
// 有关更多选项,请参阅BackoffPolicy.noBackoff(),BackoffPolicy.constantBackoff()和BackoffPolicy.exponentialBackoff()。
builder.setBackoffPolicy(BackoffPolicy.constantBackoff(TimeValue.timeValueSeconds(1L), 3));

创建BulkProcessor后,就可以向其添加请求了:

IndexRequest one = new IndexRequest("posts", "doc", "1").
source(XContentType.JSON, "title",
"In which order are my Elasticsearch queries executed?");
IndexRequest two = new IndexRequest("posts", "doc", "2")
.source(XContentType.JSON, "title",
"Current status and upcoming changes in Elasticsearch");
IndexRequest three = new IndexRequest("posts", "doc", "3")
.source(XContentType.JSON, "title",
"The Future of Federated Search in Elasticsearch"); bulkProcessor.add(one);
bulkProcessor.add(two);
bulkProcessor.add(three);

这些请求将由BulkProcessor执行,BulkProcessor负责为每个批量请求调用BulkProcessor.Listener。
侦听器提供访问BulkRequest和BulkResponse的方法:

       BulkProcessor.Listener listener = new BulkProcessor.Listener() {
@Override
public void beforeBulk(long executionId, BulkRequest request) {
//在每次执行BulkRequest之前调用,通过此方法可以获取将在BulkRequest中执行的操作数
int numberOfActions = request.numberOfActions();
logger.debug("Executing bulk [{}] with {} requests",
executionId, numberOfActions);
} @Override
public void afterBulk(long executionId, BulkRequest request, BulkResponse response) {
//在每次执行BulkRequest后调用,通过此方法可以获取BulkResponse是否包含错误
if (response.hasFailures()) {
logger.warn("Bulk [{}] executed with failures", executionId);
} else {
logger.debug("Bulk [{}] completed in {} milliseconds",
executionId, response.getTook().getMillis());
}
} @Override
public void afterBulk(long executionId, BulkRequest request, Throwable failure) {
//如果BulkRequest失败,通过调用此方法可以获取失败
logger.error("Failed to execute bulk", failure);
}
};

将所有请求添加到BulkProcessor后,需要使用两种可用的关闭方法之一关闭其实例。

awaitClose()方法可用于等待所有请求都已处理或过了指定的等待时间:

boolean terminated = bulkProcessor.awaitClose(30L, TimeUnit.SECONDS); 

如果所有批量请求都已完成,则该方法返回true;如果在所有批量请求完成之前等待时间已过,则返回false

close()方法可用于立即关闭BulkProcessor:

bulkProcessor.close();

两种方法在关闭处理器之前会刷新已添加到处理器的请求,并且还会禁止将任何新请求添加到处理器。

官方文档:https://www.elastic.co/guide/en/elasticsearch/client/java-rest/current/java-rest-high-document-bulk.html#_optional_arguments_4

Bulk API的更多相关文章

  1. Elasticsearch批处理操作——bulk API

    Elasticsearch提供的批量处理功能,是通过使用_bulk API实现的.这个功能之所以重要,在于它提供了非常高效的机制来尽可能快的完成多个操作,与此同时使用尽可能少的网络往返. 1.批量索引 ...

  2. Salesforce Bulk API 基于.Net平台下的实施

    在最近的salesforce实施项目中应用到Bulk API来做数据接口.顺便把实际应用的例子写下来.希望对做salesforce接口的朋友有借鉴作用. 一 参考网络牛人写好的Demo. 下载地址:h ...

  3. elasticsearch6.7 05. Document APIs(9)Bulk API

    8.Bulk API 可以把多个index或delete操作放在单个bulk API中执行.这样可以极大地提高索引速度. /_bulkAPI使用如下的JSON结构: action_and_meta_d ...

  4. ElasticSearch(十三) bulk api奇特的json格式的原因

    bulk api的语法 正常的语法: {"action": {"meta"}}\n {"data"}\n {"action&quo ...

  5. ElasticSearch Bulk API

    做一个简单的记录,以便自己后续查找 一.环境要求 ElasticSearch 7.3.0 Kibana 7.3.0 二.详情 ElasticSearch 的 Bulk API 可以批量进行索引或者删除 ...

  6. Elasticsearch由浅入深(六)批量操作:mget批量查询、bulk批量增删改、路由原理、增删改内部原理、document查询内部原理、bulk api的奇特json格式

    mget批量查询 批量查询的好处就是一条一条的查询,比如说要查询100条数据,那么就要发送100次网络请求,这个开销还是很大的如果进行批量查询的话,查询100条数据,就只要发送1次网络请求,网络请求的 ...

  7. elasticsearch 中文API bulk(六)

    bulk API bulk API允许开发者在一个请求中索引和删除多个文档.下面是使用实例. import static org.elasticsearch.common.xcontent.XCont ...

  8. elasticsearch中常用的API

    elasticsearch中常用的API分类如下: 文档API: 提供对文档的增删改查操作 搜索API: 提供对文档进行某个字段的查询 索引API: 提供对索引进行操作,查看索引信息等 查看API: ...

  9. elasticsearch中的API

    elasticsearch中的API es中的API按照大类分为下面几种: 文档API: 提供对文档的增删改查操作 搜索API: 提供对文档进行某个字段的查询 索引API: 提供对索引进行操作 查看A ...

随机推荐

  1. Sping 里面的适配器模式的实现

    适配器模式----------设计模式最近在看SpringMVC源码,从中看到了比较优秀的设计模式所以来分享下. 1.适配器模式(Adapter):将一个类的接口转换成客户希望的另外一个接口,Adap ...

  2. Linux下查看CPU型号,内存大小,硬盘空间,进程等的命令(详解)

    转自:http://www.jb51.net/article/97157.htm 1 查看CPU 1.1 查看CPU个数 # cat /proc/cpuinfo | grep "physic ...

  3. 07binlog日志介绍

    设置日志格式为row 创建数据库和表 mysql> create database chinasoft charset=utf8mb4; mysql> use chinasoft; mys ...

  4. GCD nyoj 1007 (欧拉函数+欧几里得)

    GCD  nyoj 1007 (欧拉函数+欧几里得) GCD 时间限制:1000 ms  |  内存限制:65535 KB 难度:3   描述 The greatest common divisor ...

  5. Spring Cloud配置中心搭建(集成Git)

    1. 在Github(或其他)创建配置中心仓库bounter-config-repo,然后在仓库创建两个配置文件:simon.properties.susan.properties,链接如下: htt ...

  6. excel打开csv文件乱码解决办法

    参考链接: https://jingyan.baidu.com/article/4dc408484776fbc8d846f168.html 问题:用 Excel 打开 csv 文件,确认有乱码的问题. ...

  7. linux shell脚本、命令学习

    1,echo "test" > test.txt    输出重定向到text.txt,文件不存在就创建 echo "test" >> test ...

  8. MapReduce流量统计

    准备数据access.log 要用到的只有第二个手机号,倒数第三上行流量,倒数第二下行流量. 1363157985066 13726230503 00-FD-07-A4-72-B8:CMCC 120. ...

  9. 2142: 逛超市(zznuoj)

    2142: 逛超市 时间限制: 1 Sec  内存限制: 128 MB提交: 82  解决: 43[提交] [状态] [讨论版] [命题人:admin] 题目描述 “别人总说我瓜,其实我一点也不瓜,大 ...

  10. js-将文本复制到剪切板

    // 将文本复制到剪切板 var clipboard2 = new ClipboardJS('.add_wx_guide_float', { text: function(trigger) { ret ...