elasticdump数据迁移与内外网安装

一、安装node

首先获取安装包

wget https://nodejs.org/dist/v16.14.0/node-v16.14.0-linux-x64.tar.xz
tar axf node-v16.14.0-linux-x64.tar.xz -C /usr/local/
mv /usr/local/node-v16.14.0-linux-x64 /usr/local/node

然后配置环境变量

vim /etc/profile
export NODE_HOME=/usr/local/node
export PATH=$NODE_HOME/bin:$PATH

接下来刷新环境变量,然后测试一下安装是否完成

 source /etc/profile
node -v
npm -v

如果是mac 的话可以使用brew 安装

brew install node@16

二、在线安装elasticdump

执行下面的命令安装(如果下载慢的话,使用国产镜像源)

npm config set registry=https://registry.npmmirror.com/
npm install elasticdump -g

使用下面的命令查看安装目录

npm root -g

我的位置在这里/opt/homebrew/lib/node_modules

三、离装elasticdump

这里的原理是将node安装包和elasticdump安装报复制到需要离线安装的服务器。

获取node 的离线安装包进行安装即可,参考第一步 获取elasticdump的安装包安装,所以我们首选需要一个打包工具 npm install -g npm-pack-all

然后我们切换到上面elasticdump的安装路,打包elasticdump,会在当前目录生成elasticdump-6.103.0.tgz 这样一个压缩包,这就是我们离线安装需要的包

cd /opt/homebrew/lib/node_modules/elasticdump/
npm-pack-all

到这里我们看到离线包已经生成好了,接下来我们复制到我们之前已经安装好node 的机器上,执行下面的命令

npm install elasticdump-6.103.0.tgz

后面为了方便使用,我们可以配置一下elasticdump的环境变量

vim ~/.bashrc
# 追加以下内容
#node
export DUMP_HOME=/opt/homebrew/lib/node_modules/elasticdump/
export PATH=$DUMP_HOME/bin:$PATH
# 刷新
source ~/.bashrc

四、使用elasticdump

这里的使用主要分为两种,一种是数据备份,一种是数据迁移

备份主要指的是生成备份的数据文件,在需要的时候进行还原 数据迁移是指将原来索引里的数据迁移到新的索引 其实数据备份也能达到数据迁移的目的,但是在两个环境的网络不通的时候我们只能使用数据备份

我们安装成功后,在elasticdump的bin目录下其实有两个工具,一个是elasticdump 另外一个是multielasticdump

数据迁移 迁移索引

elasticdump \
 --input=http://192.168.1.140:9200/source_index \
 --output=http://192.168.1.141:9200/target_index \
 --type=mapping

迁移数据

elasticdump \
 --input=http://192.168.1.140:9200/source_index \
 --output=http://192.168.1.141:9200/target_index \
 --type=data \
 --limit=2000

这个命令会将源 Elasticsearch 实例中的 “my_index” 索引的所有数据导出,并保存到 “/path/to/output.json” 的 JSON 文件中。

--input:指定输入的 Elasticsearch 实例和索引。可以是一个 URL,也可以是本地 Elasticsearch 实例的路径。 --output:指定输出的文件路径,数据将保存为一个 JSON 文件。 --type:指定要导出的数据类型,通常为 “data” 表示文档数据。 你还可以使用其他选项来进一步控制导出过程,如 --query, --size, --limit, --filter 等,具体取决于你的需求。可以通过运行 elasticdump --help 命令来

数据备份 导出索引和数据

索引

elasticdump \
--input=http://192.168.1.140:9200/source_index \
--output=/data/source_index_mapping.json \
--type=mapping

数据

elasticdump \
--input=http://192.168.1.140:9200/source_index \
--output=/data/source_index.json \
--type=data \
--limit=2000

导入索引和数据

导入索引

elasticdump \
--input=/data/source_index_mapping.json \
--output=http://192.168.1.141:9200/source_index \
--type=mapping

导入数据

elasticdump \
--input=/data/source_index.json \
--output=http://192.168.1.141:9200/source_index \
--type=data \
--limit=2000

#es如果有密码,执行以下语句

elasticdump \ --input=http://username:passowrd@production.es.com:9200/my_index \ --output=http://username:password@staging.es.com:9200/my_index \ --type=data

elasticdump 所有索引

elasticdump --input=./indices.json --output=http://localhost:9201 --all=true 

elasticdump 所有数据

elasticdump --input=http://localhost:9200/ --output=all_data.json --all=true
这里的参数解释如下:
--input:指定 Elasticsearch 实例的地址。
--output:指定导出的文件名。
--all=true:指示 elasticdump 导出所有的数据。

其他用法 还有其他使用的细节,例如压缩,指定query 什么的,我们可以参考下面的例子

#Copy an index from production to staging with analyzer and mapping:

elasticdump \
 --input=http://production.es.com:9200/my_index \
 --output=http://staging.es.com:9200/my_index \
 --type=analyzer
elasticdump \
 --input=http://production.es.com:9200/my_index \
 --output=http://staging.es.com:9200/my_index \
 --type=mapping
elasticdump \
 --input=http://production.es.com:9200/my_index \
 --output=http://staging.es.com:9200/my_index \
 --type=data
# Backup index data to a file:
elasticdump \
 --input=http://production.es.com:9200/my_index \
 --output=/data/my_index_mapping.json \
 --type=mapping
elasticdump \
 --input=http://production.es.com:9200/my_index \
 --output=/data/my_index.json \
 --type=data
# Backup and index to a gzip using stdout:
elasticdump \
 --input=http://production.es.com:9200/my_index \
 --output=$ \
| gzip > /data/my_index.json.gz
# Backup the results of a query to a file
elasticdump \
 --input=http://production.es.com:9200/my_index \
 --output=query.json \
 --searchBody="{\"query\":{\"term\":{\"username\": \"admin\"}}}"
#Specify searchBody from a file

elasticdump \
 --input=http://production.es.com:9200/my_index \
 --output=query.json \
 --searchBody=@/data/searchbody.json  
# Copy a single shard data:

elasticdump \
 --input=http://es.com:9200/api \
 --output=http://es.com:9200/api2 \
 --input-params="{\"preference\":\"_shards:0\"}"
# Backup aliases to a file

elasticdump \
 --input=http://es.com:9200/index-name/alias-filter \
 --output=alias.json \
 --type=alias
# Import aliases into ES

elasticdump \
 --input=./alias.json \
 --output=http://es.com:9200 \
 --type=alias
# Backup templates to a file

elasticdump \
 --input=http://es.com:9200/template-filter \
 --output=templates.json \
 --type=template
# Import templates into ES

elasticdump \
 --input=./templates.json \
 --output=http://es.com:9200 \
 --type=template
# Split files into multiple parts

elasticdump \
 --input=http://production.es.com:9200/my_index \
 --output=/data/my_index.json \
 --fileSize=10mb
# Import data from S3 into ES (using s3urls)

elasticdump \
 --s3AccessKeyId "${access_key_id}" \
 --s3SecretAccessKey "${access_key_secret}" \
 --input "s3://${bucket_name}/${file_name}.json" \
 --output=http://production.es.com:9200/my_index
# Export ES data to S3 (using s3urls)

elasticdump \
 --s3AccessKeyId "${access_key_id}" \
 --s3SecretAccessKey "${access_key_secret}" \
 --input=http://production.es.com:9200/my_index \
 --output "s3://${bucket_name}/${file_name}.json"
# Import data from MINIO (s3 compatible) into ES (using s3urls)

elasticdump \
 --s3AccessKeyId "${access_key_id}" \
 --s3SecretAccessKey "${access_key_secret}" \
 --input "s3://${bucket_name}/${file_name}.json" \
 --output=http://production.es.com:9200/my_index
 --s3ForcePathStyle true
 --s3Endpoint https://production.minio.co
# Export ES data to MINIO (s3 compatible) (using s3urls)

elasticdump \
 --s3AccessKeyId "${access_key_id}" \
 --s3SecretAccessKey "${access_key_secret}" \
 --input=http://production.es.com:9200/my_index \
 --output "s3://${bucket_name}/${file_name}.json"
 --s3ForcePathStyle true
 --s3Endpoint https://production.minio.co
# Import data from CSV file into ES (using csvurls)

elasticdump \
  # csv:// prefix must be included to allow parsing of csv files

 # --input "csv://${file_path}.csv" \

 --input "csv:///data/cars.csv"
 --output=http://production.es.com:9200/my_index \
 --csvSkipRows 1    # used to skip parsed rows (this does not include the headers row)
 --csvDelimiter ";" # default csvDelimiter is ','

常用参数

--direction  dump/load 导出/导入
--ignoreType 被忽略的类型,data,mapping,analyzer,alias,settings,template
--includeType 包含的类型,data,mapping,analyzer,alias,settings,template
--suffix 加前缀,es6-${index}
--prefix 加后缀,${index}-backup-2018-03-13

总结

elasticdump是ElasticSearch提供的一个工具,我们主要可以用来完成

数据备份 数据迁移 这一节我们主要介绍了elasticdump的安装和使用,还有就是,Elasticdump 是一个第三方工具,不是官方的 Elasticsearch 产品。虽然它对某些用例很有帮助,但在使用之前,确保与你的 Elasticsearch 版本兼容,并查阅工具的文档以了解任何特定的注意事项或限制。

总体来说,elasticdump是一个非常实用的数据迁移和备份工具。它可以帮助我们轻松地在不同Elasticsearch集群之间进行数据迁移,实现集群之间的无缝数据同步。

使用dump迁移索引 拷贝索引

elasticdump
   --input=http://production.es.com:9200/my_index
   --output=http://staging.es.com:9200/my_index
   --type=mapping

拷贝数据

elasticdump
   --input=http://production.es.com:9200/my_index
   --output=http://staging.es.com:9200/my_index
   --type=data

拷贝所有索引

elasticdump  
   --input=http://production.es.com:9200/
   --output=http://staging.es.com:9200/
   --all=true  

7、迁移实战 为了方便操作写了一个迁移脚本,仅供参考。

#!/bin/bash
echo -n "源ES地址: "
read old
echo -n "目标ES地址: "
read new
echo -n "源索引名: "
read old_index
echo -n "目标索引名: "
read new_index
cd /root/node_modules/elasticdump/bin/
./elasticdump --input=$old/$old_index  --output=$new/$new_index  --type=mapping &>> /root/dump.log
./elasticdump --input=$old/$old_index  --output=$new/$new_index  --type=data &>> /root/dump.log

建议:有内网的话尽量使用内网IP

八、详细参数

# Copy an index from production to staging with analyzer and mapping:

elasticdump \
 --input=http://production.es.com:9200/my_index \
 --output=http://staging.es.com:9200/my_index \
 --type=analyzer
elasticdump \
 --input=http://production.es.com:9200/my_index \
 --output=http://staging.es.com:9200/my_index \
 --type=mapping
elasticdump \
 --input=http://production.es.com:9200/my_index \
 --output=http://staging.es.com:9200/my_index \
 --type=data
# Backup index data to a file:

elasticdump \
 --input=http://production.es.com:9200/my_index \
 --output=/data/my_index_mapping.json \
 --type=mapping
elasticdump \
 --input=http://production.es.com:9200/my_index \
 --output=/data/my_index.json \
 --type=data
# Backup and index to a gzip using stdout:

elasticdump \
 --input=http://production.es.com:9200/my_index \
 --output=$ \
| gzip > /data/my_index.json.gz
# Backup the results of a query to a file

elasticdump \
 --input=http://production.es.com:9200/my_index \
 --output=query.json \
 --searchBody='{"query":{"term":{"username": "admin"}}}'
# Copy a single shard data:

elasticdump \
 --input=http://es.com:9200/api \
 --output=http://es.com:9200/api2 \
 --params='{"preference" : "_shards:0"}'
# Backup aliases to a file

elasticdump \
 --input=http://es.com:9200/index-name/alias-filter \
 --output=alias.json \
 --type=alias
# Import aliases into ES

elasticdump \
 --input=./alias.json \
 --output=http://es.com:9200 \
 --type=alias
# Backup templates to a file

elasticdump \
 --input=http://es.com:9200/template-filter \
 --output=templates.json \
 --type=template
# Import templates into ES

elasticdump \
 --input=./templates.json \
 --output=http://es.com:9200 \
 --type=template
# Split files into multiple parts

elasticdump \
 --input=http://production.es.com:9200/my_index \
 --output=/data/my_index.json \
 --fileSize=10mb
# Import data from S3 into ES (using s3urls)

elasticdump \
 --s3AccessKeyId "${access_key_id}" \
 --s3SecretAccessKey "${access_key_secret}" \
 --input "s3://${bucket_name}/${file_name}.json" \
 --output=http://production.es.com:9200/my_index
# Export ES data to S3 (using s3urls)

elasticdump \
 --s3AccessKeyId "${access_key_id}" \
 --s3SecretAccessKey "${access_key_secret}" \
 --input=http://production.es.com:9200/my_index \
 --output "s3://${bucket_name}/${file_name}.json"

参考文档: https://blog.csdn.net/u010955999/article/details/80814656 https://www.cnblogs.com/mojita/p/12011800.html

elasticdump数据迁移与内外网安装的更多相关文章

  1. 京东云开发者|京东云RDS数据迁移常见场景攻略

    云时代已经来临,云上很多场景下都需要数据的迁移.备份和流转,各大云厂商也大都提供了自己的迁移工具.本文主要介绍京东云数据库为解决用户数据迁移的常见场景所提供的解决方案. 场景一:数据迁移上云 数据迁移 ...

  2. JIRA6.36-7.23数据迁移文档

    JIRA6.3.6-JIRA7.2.3数据迁移文档 安装JIRA7.2.3 安装包位于服务器/opt/SOFTWARE_PACKAGE目录下 建立JIRA安装的目录数据目录 cd /opt mkdir ...

  3. Flask入门之触发器,事件,数据迁移

    SQLAlchemy Core和SQLAlchemy ORM都具有各种各样的事件挂钩: 核心事件 - 这些在 Core Events中描述,并包括特定于连接池生命周期,SQL语句执行,事务生命周期以及 ...

  4. elasticsearch7.5.0+kibana-7.5.0+cerebro-0.8.5集群生产环境安装配置及通过elasticsearch-migration工具做新老集群数据迁移

    一.服务器准备 目前有两台128G内存服务器,故准备每台启动两个es实例,再加一台虚机,共五个节点,保证down一台服务器两个节点数据不受影响. 二.系统初始化 参见我上一篇kafka系统初始化:ht ...

  5. 后盾网lavarel视频项目---1、数据迁移

    后盾网lavarel视频项目---1.数据迁移 一.总结 一句话总结: 1.lavarel的数据迁移比较简单,就是用php来创建数据表 2.创建迁移文件:php artisan make:migrat ...

  6. 【linux】gitlab 的安装以及数据迁移

    一 .安装; 1  下载相应版本rpm包并安装 https://mirrors.tuna.tsinghua.edu.cn/gitlab-ce/yum/el7/ wget https://mirrors ...

  7. Linux中的infuxdb安装及数据迁移

    一.安装influxdb 1.更新yum源 cat <<EOF | sudo tee /etc/yum.repos.d/influxdb.repo   [influxdb]   baseu ...

  8. MySQL数据迁移到SQL Server

    数据迁移的工具有很多,基本SSMA团队已经考虑到其他数据库到SQL Server迁移的需求了,所以已经开发了相关的迁移工具来支持. 此博客主要介绍MySQL到SQL Server数据迁移的工具:SQL ...

  9. HBase跨版本数据迁移总结

    某客户大数据测试场景为:Solr类似画像的数据查出用户标签--通过这些标签在HBase查询详细信息.以上测试功能以及性能. 其中HBase的数据量为500G,Solr约5T.数据均需要从对方的集群人工 ...

  10. 使用EF对已存在的数据库进行模块化数据迁移

    注:本文面向的是已经对EF的迁移功能有所了解,知道如何在控制台下进行相关命令输入的读者 问题 最近公司项目架构使用ABP进行整改,顺带想用EF的自动迁移代替了以前的手工脚本. 为什么要替代? 请看下图 ...

随机推荐

  1. vue-i18n 初体验

    vue-i18n 初体验 使用vue,如何国际化呢?采用 vue-i18n.(i18n,internationalization,i和n中间省略18个字符) vue-i18n 官网地址 https:/ ...

  2. Wpf虚拟屏幕键盘

    在Wpf使用虚拟键盘有基于osk和tabtip,后者只能在win8和win10之后电脑使用,而且两者在wpf中调用时都必须提升为管理员权限,实际应用中还是不方便. 今天介绍的方法是使用第三方库oskl ...

  3. itest(爱测试) 开源接口测试,敏捷测试管理平台10.0.0GA 发布

    一:itest work 简介 itest work 开源敏捷测试管理,包含极简的任务管理,测试管理,缺陷管理,测试环境管理,接口测试,接口Mock,还有压测 ,又有丰富的统计分析,8合1工作站.可按 ...

  4. itest work 开源接口测试&敏捷测试管理平台 9.5.0 GA_u4发布,优化及修复BUG

    (一)itest work 简介 itest work (爱测试)  一站式工作站让测试变得简单.敏捷,"好用.好看,好敏捷" ,是itest wrok 追求的目标.itest w ...

  5. windows报错

    如果说你dns没有权威的话1.先去long.com上面右键属性把"区域传送给所有服务器打勾"2.右键属性,在名称分析器中,输入要添加为辅助dns的服务器的ip显示解析成功就可以了

  6. C语言常用数学函数

    目录 C语言常用数学函数(头文件#include "math.h") abs()函数 labs()函数 fabs()函数 floor()函数 floorf() floorl() c ...

  7. kettle从入门到精通 第五十课 ETL之kettle 课程源文件分享

    Kettle 是一款功能强大的开源 ETL 工具,被广泛应用于数据集成.数据转换和数据加载等领域.随着数据量和多样性的不断增加,使用 Kettle 进行数据处理已成为许多企业和数据工程师的首选.在过去 ...

  8. HTML 使用动态脚本

    这个 HTML 图片框架 这个HTML支持的脚本属于动态的插件形式的程序 用分段数方式实现动画 1定时器 2函数 计算机有四则运算加减乘除 还有一个是 ^ (shift + 6这个符号是余数,8^3是 ...

  9. fontawesome-webfont.woff:1 Failed to load resource: the server responded with a status of 404 ()

    fontawesome-webfont.woff2:1 Failed to load resource: the server responded with a status of 404 ()fon ...

  10. vue中退出循环的方法

    forEachforEach不能使用break和continue.return也无法退出循环. 使用break,会报错(报错信息:SyntaxError: Illegal break statemen ...