elasticsearch5.0集群大数据量迁移方法及注意事项
当es集群的数据量较小的情况下elasticdump这个工具比较方便,但是当数据量达到一定级别比如上百G的时候,elasticdump速度就很慢了,此时我们可以使用快照的方法进行备份
elasticdump工具的使用可以参考 博文:elasticsearch5.0.1集群一次误删除kibana索引引发的血案 http://blog.csdn.net/reblue520/article/details/61925375
个人感觉这两个工具各有优缺点,和mysql的备份工具比起来:
elasticdump --> mysqldump# 都是逻辑备份需要将数据一条一条导出再导入,适合数据量小的场景
snapshot --> percona-xtrabackup # 物理备份,速度取决于磁盘IO能力,适合大数据量场景
快照方案的大概场景:
1.创建一个共性目录(新集群和老集群都可以访问这个目录),创建一个快照将老集群写入到这个共享目录中
2.将快照恢复到新集群中(即共享目录)
快照方案主要试用于新老集群的迁移,并且最好两个集群在一个局域网中
一、使用snapshot恢复.kibana索引数据
1.修改配置文件:
vim elasticsearch.yml
path.repo: ["/data/bak"]
2.创建仓库
curl -XPUT http://10.25.177.47:9200/_snapshot/my_backup -d '
{
"type": "fs",
"settings": {
"location": "/data/bak",
"compress": true
}
}
'
# 返回true表示成功
{"acknowledged":true}
查看仓库
# curl -XGET 'http://10.25.177.47:9200/_snapshot/my_backup?pretty'
{
"my_backup" : {
"type" : "fs",
"settings" : {
"compress" : "true",
"location" : "/data/bak"
}
}
}
3、备份数据
curl -XPUT http://10.25.177.47:9200/_snapshot/my_backup/snapshot_20161207
执行上面的命令会快照ealsticsearch上所有的索引。
如果需要快照指定的索引
curl -XPUT http://10.25.177.47:9200/_snapshot/my_backup/snapshot_20170316 -d '
{
"indices": ".kibana"
}
'
{"accepted":true}
如果成功返回结果显示{"accepted":true}
4、查看备份
# curl -XGET http://10.25.177.47:9200/_snapshot/my_backup/snapshot_20170316?pretty
{
"snapshots" : [
{
"snapshot" : "snapshot_20170316",
"uuid" : "DhdKZkTaQ4G-eLAjJ68zGQ",
"version_id" : 5000199,
"version" : "5.0.1",
"indices" : [
".kibana"
],
"state" : "SUCCESS",
"start_time" : "2017-03-16T09:56:02.075Z",
"start_time_in_millis" : 1489658162075,
"end_time" : "2017-03-16T09:56:02.154Z",
"end_time_in_millis" : 1489658162154,
"duration_in_millis" : 79,
"failures" : [ ],
"shards" : {
"total" : 1,
"failed" : 0,
"successful" : 1
}
}
]
}
也可以使用下面的命令查看快照的状态
# curl -XGET http://10.25.177.47:9200/_snapshot/my_backup/snapshot_20170316/_status?pretty
{
"snapshots" : [
{
"snapshot" : "snapshot_20170316",
"repository" : "my_backup",
"uuid" : "DhdKZkTaQ4G-eLAjJ68zGQ",
"state" : "SUCCESS",
"shards_stats" : {
"initializing" : 0,
"started" : 0,
"finalizing" : 0,
"done" : 1,
"failed" : 0,
"total" : 1
},
"stats" : {
"number_of_files" : 4,
"processed_files" : 4,
"total_size_in_bytes" : 48362,
"processed_size_in_bytes" : 48362,
"start_time_in_millis" : 1489658162100,
"time_in_millis" : 41
},
"indices" : {
".kibana" : {
"shards_stats" : {
"initializing" : 0,
"started" : 0,
"finalizing" : 0,
"done" : 1,
"failed" : 0,
"total" : 1
},
"stats" : {
"number_of_files" : 4,
"processed_files" : 4,
"total_size_in_bytes" : 48362,
"processed_size_in_bytes" : 48362,
"start_time_in_millis" : 1489658162100,
"time_in_millis" : 41
},
"shards" : {
"0" : {
"stage" : "DONE",
"stats" : {
"number_of_files" : 4,
"processed_files" : 4,
"total_size_in_bytes" : 48362,
"processed_size_in_bytes" : 48362,
"start_time_in_millis" : 1489658162100,
"time_in_millis" : 41
}
}
}
}
}
}
]
}
5、删除备份
curl -XDELETE http://10.25.177.47:9200/_snapshot/my_backup/snapshot_20170316
{"acknowledged":true}
6、恢复备份测试
①删除.kibana索引,可以看到报表已经没有了
curl -XDELETE http://10.25.177.47:9200/.kibana
{"acknowledged":true}
②关闭.kibana索引
curl -XPOST http://10.25.177.47:9200/.kibana/_close
{"acknowledged":true}
③使用快照恢复
curl -XPOST http://10.25.177.47:9200/_snapshot/my_backup/snapshot_20170316/_restore
{"accepted":true}
curl '10.25.177.47:9200/_cat/indices?v'
可以看到成功恢复
二、生产环境实战(当老集群磁盘空间不足的情况)
1)旧的集群备份出来的数据,要拷贝到新集群中。
解决两个问题:
1.旧集群没有足够的空间存储这些备份出来的数据
2.备份出来都需要拷贝到新的集群中,此处想到一个方法,通过nfs或者sshfs将新集群机器的目录远程挂载(mount)到旧集群机器上。
2)挂载目录,2.1)和2.2)可以任选一种方式
2.1)使用sshfs进行挂载:
// 在每台机器上安装sshfs
yum install fuse sshfs -y
// 每台机器上创建Mount共享目录
mkdir /data/backup_es
// 旧集群的每台机器上挂载共享目录(分别挂载了新机器的/opt/data07目录到/opt/backup_es)
sshfs root@192.168.2.1:/opt/data07 /opt/backup_es -o allow_other
// 测试运行ES的用户是否有对共享目录的写权限
sudo -u elastic touch /opt/backup_es
// 在旧机器上将共享目录的权限付给ES的运行用户
chown elastic:elastic -R /opt/backup_es
2.2)使用Mount nfs进行挂载(推荐):
// 在新集群的机器上(10.25.177.47)添加共享的文件夹和客户端可以访问的IP地址
创建目录:
mkdir /data/voice
vim /etc/exports
/data/voice *(insecure,rw,no_root_squash,sync,anonuid=500,anongid=500)
// 查看共享文件夹
yum install -y exportfs
exportfs -rv
// 重启启动新集群机器的NFS服务
systemctl restart nfs
// 旧集群的每台机器上创建共享目录
mkdir /data/backup_es
// 旧集群每一台服务器上进行Mount挂载
mount -t nfs 10.25.177.47:/data/voice /data/backup_es -o proto=tcp -o nolock
列出nfs服务端共享的目录:
# showmount -e 10.25.177.47
Export list for 10.25.177.47:
/data/voice *
报错:
mount: wrong fs type, bad option, bad superblock on 10.25.177.47:/opt/data07,
missing codepage or helper program, or other error
(for several filesystems (e.g. nfs, cifs) you might
need a /sbin/mount.<type> helper program)
In some cases useful info is found in syslog - try
dmesg | tail or so.
解决:
yum install -y nfs-utils
报错:
mount.nfs: access denied by server while mounting 10.25.177.47:/data/voice
解决:
nfs服务端
vim /etc/sysconfig/nfs
修改如下:
RPCNFSDARGS="-N 2 -N 3"
----->启用
# Turn off v4 protocol support
RPCNFSDARGS="-N 4" ---->启用
重启生效
systemctl restart nfs
// 在旧机器上将共享目录的权限付给ES的运行用户
chown yunva:yunva -R /data/backup_es
3)创建ES仓库
3.1创建ES仓库my_backup
修改配置文件:
vim elasticsearch.yml
# 添加如下配置(需要在旧集群的每个节点上添加):
path.repo: ["/data/backup_es"]
创建快照仓库命令:
curl -XPUT http://10.26.241.237:9200/_snapshot/my_backup -d '
{
"type": "fs",
"settings": {
"location": "/data/backup_es",
"compress": true
}
}
'
{"acknowledged":true}
查看仓库
# curl -XGET 'http://10.26.241.237:9200/_snapshot/my_backup?pretty'
{
"my_backup" : {
"type" : "fs",
"settings" : {
"compress" : "true",
"location" : "/data/backup_es"
}
}
}
4)创建快照备份
4.1创建所有索引的快照
curl -XPUT http://10.26.241.237:9200/_snapshot/my_backup/snapshot_voice20170316
执行上面的命令会快照ealsticsearch上所有的索引。
4.2创建指定索引的快照
curl -XPUT http://10.26.241.237:9200/_snapshot/my_backup/snapshot_voice20170316 -d '
{
"indices": "voice:mic:lose"
}
'
如果成功返回结果显示{"accepted":true}
4、查看备份
# curl -XGET http://10.26.241.237:9200/_snapshot/my_backup/snapshot_voice20170316?pretty
{
"snapshots" : [
{
"snapshot" : "snapshot_voice20170316",
"uuid" : "QBxu1worT3KDMf9GdG8svA",
"version_id" : 5000199,
"version" : "5.0.1",
"indices" : [
"voice:mic:lose"
],
"state" : "SUCCESS",
"start_time" : "2017-03-16T12:07:42.846Z",
"start_time_in_millis" : 1489666062846,
"end_time" : "2017-03-16T12:08:03.831Z",
"end_time_in_millis" : 1489666083831,
"duration_in_millis" : 20985,
"failures" : [ ],
"shards" : {
"total" : 5,
"failed" : 0,
"successful" : 5
}
}
]
}
也可以使用下面的命令查看快照的状态
# curl -XGET http://10.25.177.47:9200/_snapshot/my_backup/snapshot_voice20170316/_status?pretty
可以看到ES会同时进行几个分片的备份,而且显示备份的数据情况。
通过观察可以看到,旧集群上共享的两个目录/data/backup_es会均分备份出来的数据
{
"snapshots" : [
{
"snapshot" : "snapshot_voice20170316",
"repository" : "my_backup",
"uuid" : "42WjLbCLQwadjBeMTK0p2w",
"state" : "SUCCESS",
"shards_stats" : {
"initializing" : 0,
"started" : 0,
"finalizing" : 0,
"done" : 1,
"failed" : 0,
"total" : 1
},
"stats" : {
"number_of_files" : 107,
"processed_files" : 107,
"total_size_in_bytes" : 943093922,
"processed_size_in_bytes" : 943093922,
"start_time_in_millis" : 1489665958527,
"time_in_millis" : 52189
},
"indices" : {
"voice:mic:lose" : {
"shards_stats" : {
"initializing" : 0,
"started" : 0,
"finalizing" : 0,
"done" : 1,
"failed" : 0,
"total" : 1
},
"stats" : {
"number_of_files" : 107,
"processed_files" : 107,
"total_size_in_bytes" : 943093922,
"processed_size_in_bytes" : 943093922,
"start_time_in_millis" : 1489665958527,
"time_in_millis" : 52189
},
"shards" : {
"0" : {
"stage" : "DONE",
"stats" : {
"number_of_files" : 107,
"processed_files" : 107,
"total_size_in_bytes" : 943093922,
"processed_size_in_bytes" : 943093922,
"start_time_in_millis" : 1489665958527,
"time_in_millis" : 52189
}
}
}
}
}
}
]
}
6)耐心等待直到所有的的备份都完成。
备份完成后,查看旧集群每台机器的/data/backup_es目录,查看备份出的数据。
在所有旧集群服务器上取消挂载 umount /data/backup_es
7)在新集群中恢复
// 在新集群每台机器上将共享目录的权限付给ES的运行用户
chown yunva:yunva -R /data/voice
// 停止ES,在新集群的每台服务器上都添加设置elasticsearch.yml的参数
path.repo: ["/data/voice"]
8)恢复备份
①删除voice:mic:lose索引,可以看到节点已经没有了
curl -XDELETE http://10.25.177.47:9200/voice:mic:lose
{"acknowledged":true}
# curl '10.25.177.47:9200/_cat/indices?v'
health status index uuid pri rep docs.count docs.deleted store.size pri.store.size
yellow open .kibana OzGTpr9TSN6WGP2ynXBmaQ 1 1 40 0 47.2kb 47.2kb
# curl '10.25.177.47:9200/_cat/indices?v'
health status index uuid pri rep docs.count docs.deleted store.size pri.store.size
yellow open voice:mic:lose 5vyq-0VYSnqfV9fN9dTNmQ 1 1 3070979 0 899.4mb 899.4mb
yellow open .kibana OzGTpr9TSN6WGP2ynXBmaQ 1 1 40 0 47.2kb 47.2kb
// 启动ES,在新集群创建仓库
curl -XPUT http://10.25.177.47:9200/_snapshot/my_backup -d '
{
"type": "fs",
"settings": {
"location": "/data/voice",
"compress": true
}
}
'
8)在新集群中恢复数据
// 使用RESTful API进行备份的恢复
使用快照恢复
curl -XPOST http://10.25.177.47:9200/_snapshot/my_backup/snapshot_voice20170316/_restore
{"accepted":true}
// 查看恢复的状态
curl -XGET http://10.25.177.47:9200/_snapshot/my_backup/snapshot_voice20170316/_status
curl '10.25.177.47:9200/_cat/indices?v'
9)耐心等待,直至恢复完成。
elasticsearch5.0集群大数据量迁移方法及注意事项的更多相关文章
- elasticsearch5.0集群+kibana5.0+head插件插件的安装
elasticsearch5.0集群+kibana5.0+head插件插件的安装 es集群的规划: 两台16核64G内存的服务器: yunva_etl_es1 ip:1.1.1.1 u04es01. ...
- redis 3.0 集群__数据迁移和伸缩容
添加节点 1,启动2个新的redis-sever, 参照 ( redis 3.0 集群____安装 ),端口号为 7007 和 7008 2,使用命令 redis-trib.rb add-node 命 ...
- MySQL分页查询大数据量优化方法
方法1: 直接使用数据库提供的SQL语句 语句样式: MySQL中,可用如下方法: SELECT * FROM 表名称 LIMIT M,N适应场景: 适用于数据量较少的情况(元组百/千级)原因/缺点: ...
- MYSQL千万级别数据量迁移Elasticsearch5.6.1实战
从关系型库中迁移数据算是比较常见的场景,这里借助两个工具来完成本次的数据迁移,考虑到数据量并不大(不足两千万),未采用snapshot快照的形式进行. Elasticsearch-jdbc,Githu ...
- 软件架构自学笔记----分享“去哪儿 Hadoop 集群 Federation 数据拷贝优化”
去哪儿 Hadoop 集群 Federation 数据拷贝优化 背景 去哪儿 Hadoop 集群随着去哪儿网的发展一直在优化改进,基本保证了业务数据存储量和计算量爆发式增长下的存储服务质量.然而,随着 ...
- 大数据量时Mysql的优化
(转自网络) 如今随着互联网的发展,数据的量级也是撑指数的增长,从GB到TB到PB.对数据的各种操作也是愈加的困难,传统的关系性数据库已经无法满足快速查询与插入数据的需求.这个时候NoSQL的出现暂时 ...
- Redis 切片集群的数据倾斜分析
Redis 中如何应对数据倾斜 什么是数据倾斜 数据量倾斜 bigkey导致倾斜 Slot分配不均衡导致倾斜 Hash Tag导致倾斜 数据访问倾斜 如何发现 Hot Key Hot Key 如何解决 ...
- 大数据平台迁移实践 | Apache DolphinScheduler 在当贝大数据环境中的应用
大家下午好,我是来自当贝网络科技大数据平台的基础开发工程师 王昱翔,感谢社区的邀请来参与这次分享,关于 Apache DolphinScheduler 在当贝网络科技大数据环境中的应用. 本次演讲主要 ...
- 大数据量场景下storm自定义分组与Hbase预分区完美结合大幅度节省内存空间
前言:在系统中向hbase中插入数据时,常常通过设置region的预分区来防止大数据量插入的热点问题,提高数据插入的效率,同时可以减少当数据猛增时由于Region split带来的资源消耗.大量的预分 ...
随机推荐
- Java_io体系之RandomAccessFile简介、走进源码及示例——20
Java_io体系之RandomAccessFile简介.走进源码及示例——20 RandomAccessFile 1. 类功能简介: 文件随机访问流.关心几个特点: 1.他实现的接口不再 ...
- 【java】详解native方法的使用
目录结构: contents structure [+] 关于native关键字 使用native关键字 使用步骤 案例 编写.java文件 编译.java文件 获得.h文件 编写hello.cpp文 ...
- 虚拟机下安装ubuntu后root密码登录失败的问题
问题描述: 在虚拟机下安装了ubuntu中要输入用户名,一般情况下大家都会输入一个自己的网名或绰号之类的,密码也在这时设置过了. 但是当安装成功之后,使用命令#su root,然后输入刚才设置的密码, ...
- loadrunner controller如何执行测试
使用Virtual User Generator编写需要测试的脚本 打开controller,在左侧的available scripts里选择需要测试的脚本添加(Add)到scripts in s ...
- 通过 LPeg 介绍解析表达式语法(Parsing Expression Grammars)
通过 LPeg 介绍解析表达式语法(Parsing Expression Grammars) 译者: FreeBlues 修订版本: 1.00 最新链接: http://www.cnblogs.com ...
- IIC AT24C02读写数据的一点小体会
一.写数据 unsigned char I2CWriteByte(unsigned int mem_addr,unsigned char*DDATAp,unsigned int count) { u8 ...
- android contentprovider内容提供者
contentprovider内容提供者:让其他app可以访问私有数据库(文件) 1.AndroidManifest.xml 配置provider <?xml version="1.0 ...
- java 多线程断点下载功能
import java.io.File; import java.io.FileInputStream; import java.io.InputStream; import java.io.Rand ...
- Linux - 账户切换授权
sudo 切换账户 echo myPassword | sudo -S ls /tmp # 直接输入sudo的密码非交互,从标准输入读取密码而不是终端设备 visudo # sudo命令权限添加 /e ...
- JavaScript之事件绑定多个序列执行方法
//一种事件绑定多个方法:以加载事件为例 function addEventLoad(func,isLog) { var oldOnLoad = window.onload; if (typeof w ...