Java实现对ES数据的新增,删除,修改,及合并

新增数据

代码:

   @Autowired
private RestHighLevelClient client;
/**
* @description ES写入数据
* @author zae
* @date 2022/1/13 14:40
* @param index 索引库
* @param dataList 数据集合(size为插入数据的条数)
*/
public void insertEsData(String index,List<Map<String,Object>> dataList) {
BulkProcessor bulkProcessor = null;
try {
bulkProcessor = getBulkProcessor(client);
for(Map<String,Object> dataMap:dataList){
bulkProcessor.add(new IndexRequest(index).source(dataMap));
}
// 将数据刷新到ES中
bulkProcessor.flush();
} catch (Exception e) {
e.printStackTrace();
} finally {
try {
boolean terminatedFlag = bulkProcessor.awaitClose(150L,
TimeUnit.SECONDS);
} catch (InterruptedException e) {
e.printStackTrace();
}
}
} private BulkProcessor getBulkProcessor(RestHighLevelClient client) {
BulkProcessor bulkProcessor = null;
try {
BulkProcessor.Listener listener = new BulkProcessor.Listener() {
@Override
public void beforeBulk(long executionId, BulkRequest request) {
logger.info("Try to insert data number : "
+ request.numberOfActions());
} @Override
public void afterBulk(long executionId, BulkRequest request,
BulkResponse response) {
logger.info("************** Success insert data number : "
+ request.numberOfActions() + " , id: " +
executionId);
} @Override
public void afterBulk(long executionId, BulkRequest request,
Throwable failure) {
logger.error("Bulk is unsuccess : " + failure + ", executionId: " + executionId);
}
};
BiConsumer<BulkRequest, ActionListener<BulkResponse>> bulkConsumer =
(request, bulkListener) -> client
.bulkAsync(request, RequestOptions.DEFAULT, bulkListener);
BulkProcessor.Builder builder = BulkProcessor.builder(bulkConsumer,
listener);
builder.setBulkActions(5000);//刷新条数
builder.setBulkSize(new ByteSizeValue(100L, ByteSizeUnit.MB));// 刷新大小
builder.setConcurrentRequests(10);//并发线程数
builder.setFlushInterval(TimeValue.timeValueSeconds(100L));// 时间频率
builder.setBackoffPolicy(BackoffPolicy.constantBackoff(TimeValue.timeValueSeconds(1L), 3));//重试补偿策略
bulkProcessor = builder.build();
} catch (Exception e) {
e.printStackTrace();
try {
bulkProcessor.awaitClose(100L, TimeUnit.SECONDS);
} catch (Exception e1) {
logger.error(e1.getMessage());
}
}
return bulkProcessor;
}

注意点:

  • 传入数据中的List中的每个Map为一条数据,Map中的key为字段Field,value为值。

  • 假如在插入数据前index库中没有定义Field及映射关系,在插入数据时会自动新增字段Field,字段的类型会默认映射为value值的类型。

  • 假如新插入的数据和之前第一次插入的数据类型不一致,(相同的key但是value的类型不一样),这样在执行代码时可能不会报错失败,但是实际上并没有插入数据成功。

删除数据

代码

/**
* @description ES数据删除
* @author zae
* @date 2022/1/13 17:14
* @param index 索引库
* @param id 数据id
*/
public void delete(String index,String id){
DeleteRequest deleteRequest = new DeleteRequest(index,id);
DeleteResponse response = null;
try {
response = client.delete(deleteRequest,RequestOptions.DEFAULT);
} catch (IOException e) {
e.printStackTrace();
}
System.out.println(response);
}

删除的话直接指定索引库和要删除的数据的id进行删除,至于数据的id怎么获取,参考下面更新数据中的代码。

更新数据

直接修改

 /**
* @description ES数据更新
* @author zae
* @date 2022/1/13 16:10
* @param index 索引库
* @param key 字段名
* @param value 更新后的值
* @param id 需要修改的那条数据的id
*/
public void update(String index,String key,Object value,String id){
try {
UpdateRequest request = new UpdateRequest();
request.index(index) //索引名
.id(id)//id
.doc(
XContentFactory.jsonBuilder()
.startObject()
.field(key, value)//要修改的字段 及字段值
.endObject()
);
UpdateResponse response= client.update(request,RequestOptions.DEFAULT);
System.out.println(response.status());
} catch (Exception e) {
e.printStackTrace();
}
}
  • 更新数据需要传入指定的索引库,需要修改的字段名称,修改后的value值,以及代表那条数据的唯一id

  • 关于唯一id怎么获得,可以参考以下代码。

     public void selectAndUpdate(){
    int count = 0;
    //step1:根据条件获取需要修改的数据的id
    SearchHit[] searchHits = esDeal.selectIdByKey(PRODUCT_DEV_INDEX, "name"); // step2:遍历更新查询出来的数据
    for (SearchHit searchHit : searchHits) {
    // 获取到单条记录的id
    String id = searchHit.getId();
    //调用更新数据的核心方法
    esDeal.update(PRODUCT_DEV_INDEX,"name","张三",id);
    count++;
    }
    System.out.println("一共更新了"+count+"条数据");
    } public SearchHit[] selectIdByKey(String index,String key){
    BoolQueryBuilder boolQueryBuilder = QueryBuilders.boolQuery();
    boolQueryBuilder.must(QueryBuilders.existsQuery(key));
    SearchSourceBuilder sourceBuilder = new SearchSourceBuilder();
    sourceBuilder.query(boolQueryBuilder)
    .trackTotalHits(true)
    .size(22); SearchRequest searchRequest = new SearchRequest()
    .indices(index)
    .source(sourceBuilder);
    try {
    SearchResponse searchResponse = client.search(searchRequest, RequestOptions.DEFAULT);
    SearchHit[] hits = searchResponse.getHits().getHits();
    return hits;
    } catch (IOException e) {
    e.printStackTrace();
    }
    return null;
    }

数据合并

数据合并其实也是更新的一种,关键在于怎么提取及封装需要更新的数据,根据业务场景的不同达到合并的效果,以上面的图片为例,我需要将以上数据的20004.value里面的值合并上新的数据却也保留着原有的数据。

    @Test
public void selectAndUpdate(){
int count = 0;
//step1:根据条件获取需要修改的数据的id
SearchHit[] searchHits = esDeal.selectIdByKey(PRODUCT_DEV_INDEX, "20004.value");
for (SearchHit searchHit : searchHits) {
String id = searchHit.getId();
// step2:组装数据
Map<String, Object> sourceAsMap = searchHit.getSourceAsMap();
List<Map<String,Object>> mapList = (List<Map<String, Object>>) sourceAsMap.get("20004");
Map<String, Object> mapData = mapList.get(0);
// 获取之前20004.value的数据,并添加上新的数据
List value = (List) mapData.get("value");
value.add("120021");
value.add("3990993");
mapData.put("value",value);
// step3:根据id更新数据
esDeal.update(PRODUCT_DEV_INDEX,"20004",mapList,id);
count++;
}
System.out.println("一共更新了"+count+"条数据");
}

备注:

  • 代码中调用的selectIdByKey()以及update()在更新数据的第一部分都有代码,直接使用就好。根据以上代码更新后的数据为:

  • 在更新20004.value的值时,不需要保持和20004.value的原有数据类型一致,更新成其他类型也是可以的,这点和插入key:value的数据是有区别的。

Java实现对ES数据的新增,删除,修改,及合并的更多相关文章

  1. C# - VS2019 通过DataGridView实现对Oracle数据表的增删改查

    前言 通过VS2019建立WinFrm应用程序,搭建桌面程序后,通过封装数据库操作OracleHelper类和业务逻辑操作OracleSQL类,进而通过DataGridView实现对Oracle数据表 ...

  2. Java实现对zip和rar文件的解压缩

    通过java实现对zip和rar文件的解压缩

  3. Easyui datagrid绑定数据,新增,修改,删除方法(一)

    @{ ViewBag.Title = "UsersList"; } <script type="text/javascript"> $(functi ...

  4. Easyui datagrid绑定数据,新增,修改,删除写法

    @{ ViewBag.Title = "xw_xsfl"; } <script type="text/javascript"> var editIn ...

  5. Java 实现对Sql语句解析

    原文地址:http://www.cnblogs.com/zcftech/archive/2013/06/10/3131286.html 最近要实现一个简易的数据库系统,除了要考虑如何高效的存储和访问数 ...

  6. 基于Easyui框架的datagrid绑定数据,新增,修改,删除方法(四)

    @{ ViewBag.Title = "xxlist"; } <script type="text/javascript" language=" ...

  7. Java实现对Mysql的图片存取操作

    1.MySQL中的BLOB类型 Mysql中可以存储大文件数据,一般使用的BLOB对象.如图片,视频等等. BLOB是一个二进制大对象,可以容纳可变数量的数据.因为是二进制对象,所以与编码方式无关.有 ...

  8. js实现对json数据的序列化(兼容ie6以上浏览器)

    /** * 增加对JSON数据的序列化方法, * 主要用于IE6.7不支持JSON对象的浏览器 */ var xue = xue || {};xue.json = xue.json || {}; xu ...

  9. Java实现对ftp的读写文件

    这里仅仅是对ftp工具类的简单使用,很多东西还不是很了解.当然学以致用,先用到这里吧. public class FtpTest { /** * 向ftp写文件(数据) */ @Test public ...

  10. Java实现对cookie的增删改查

    原文地址:http://blog.csdn.net/k21325/article/details/54377830 @RequestMapping(value="meeting/addGua ...

随机推荐

  1. Solon 框架启动为什么特别快?

    思来想去!可能与 Solon 容器的独立设计有一定关系. 1.Solon 注解容器的运行特点 有什么注解要处理的(注解能力被规范成了四种),提前注册登记 全局只扫描一次,并在扫描过程中统一处理注解相关 ...

  2. 【编写环境一】遇到常见python函数处理方式

    1.python实现两个一维列表合并成一个二维列表 >>> list1 = [1,2,3,4,4] >>> list2 = [2,3,4,5,2] >> ...

  3. 4.8 x64dbg 学会扫描应用堆栈

    堆栈是计算机中的两种重要数据结构 堆(Heap)和栈(Stack)它们在计算机程序中起着关键作用,在内存中堆区(用于动态内存分配)和栈区(用于存储函数调用.局部变量等临时数据),进程在运行时会使用堆栈 ...

  4. BoostAsyncSocket 异步反弹通信案例

    Boost 利用ASIO框架实现一个跨平台的反向远控程序,该远控支持保存套接字,当有套接字连入时,自动存储到map容器,当客户下线时自动从map容器中移除,当我们需要与特定客户端通信时,只需要指定客户 ...

  5. docker中的mysql时区修改

    永久修改 进入容器 docker exec -it mysql5.7 bash 查看当前时区 date -R 修改时区 cp /usr/share/zoneinfo/PRC /etc/localtim ...

  6. SpringCloud-Config配置中心搭建保姆级教程

    一.分布式配置中⼼ 在使⽤微服务架构开发的项⽬中,每个服务都有⾃⼰的配置⽂件(application.yml),如果将每个服务的配置⽂件直接写在对应的服务中,存在以下问题: 1. 服务开发完成之后,需 ...

  7. 技嘉水雕II 360水冷散热器评测:稳压340W i9-14900K

    一.前言:极简卡扣连锁风扇设计 再多风扇也只需2根线 如今这个年代,DIY主机几乎都会配大量的RGB风扇,然而"光污染"虽然带来了视觉感官享受,在理线方面却非常繁琐. 就拿360水 ...

  8. 【技能篇】解决vs编译器scanf等函数不安全问题【手把手操作-一分钟解决】

    [技能篇]解决Vs编译器scanf等函数不安全问题 文章目录 说在前面 博主给大家的福利 解决方案 解决过程 尾声 说在前面 大家刚开始学习编程的时候,使用vs编译器.使用scanf等函数的时候遇到的 ...

  9. delphi 下获取一个字符的 Unicode 编码

    用 Ord('万') 可以得到 "万" 字的 UniCode 的编码.

  10. Flink CDC实时同步PG数据库到Kafka

    一.安装规划 操作系统 服务器IP 主机名 硬件配置 CentOS7.6 192.168.80.131 hadoop01 内存:2GB,CPU:2核,硬盘:100GB CentOS7.6 192.16 ...