1.     方案背景描述

环境迁移,需要迁移旧环境的fastdfs集群的数据到新环境,由于之前数据迁移仅仅是针对mysql和mongodb,对fastdfs数据的迁移了解甚少,本文档主要是针对fastdfs数据迁移和恢复的几种方式以及具体操作流程做详细阐述。

2.     方案实现的目标

实现fastdfs集群数据完整迁移,保证在新环境正常使用,以及保证fastdfs集群高可用。

3.     方案说明

Fstdfs整体架构

        

Fastdfs数据迁移

数据迁移是指旧的fastdfs可以继续正常运行的情况下,将旧环境的fastdfs的数据恢复到新的环境fastdfs服务中。

同IP数据迁移

1) 首先关闭fdfs_storage和fdfs_tracker服务。

2) 拷贝fdfs_storage目录中的所有数据到新目录。

3) 修改storage配置文件中的store_path和base_path到新位置。

4) 修改mod_fastdfs.conf配置文件中的store_path和base_path到新位置。

5) 根据情况,选择是否修改client配置文件。

6) 重启fdfs_tracker和fdfs_storage服务

不同IP数据迁移

不同IP之间迁移采用FastDFS的扩容机制。

1) 在新服务器安装FastDFS。

2) 将新FastDFS的storage服务实例关联到以前的tracker服务。

3) 拷贝以前的storage服务配置为新服务实例的配置文件。

4) 启动storage服务。

FastDFS会自动同步以前服务器上的数据

5) 停止storage服务,将storage配置文件中的tracker地址修改为新的tracer 地址,同时修改storage 中/data/fast_data/data/.data_init_flag文件,sync_src_server=空即可。

6) 启动新的tracker服务和storage服务。

Fastdfs数据恢复

数据恢复是指旧的FastDFS服务已经不能运行,需要将已有的FastDFS数据恢复到新的FastDFS服务中。

1) 如果FastDFS服务使用了V4的ServerID特性,修改storage_ids.conf文件,调整对应关系即可。

2) 如果采用IP地址进行标识,则需要修改tracker 和storage下data目录中的数据文件中的ip地址。

tracker server 需要修改 :

tracker/data/storage_groups_new.dat

tracker/data/storage_servers_new.dat

tracker/data/storage_sync_timestamp.dat

storage server 需要修改:

storage/data/.data_init_flag

storage/data/sync/${ip_addr}_${port}.mark

4.     数据同步以及验证

本次迁移考虑到我们旧环境依旧可以使用并且是不同网段之间的fastdfs集群,所以采用的是FastDFS的扩容机制来迁移fastdfs的数据。

查看数据同步的进度:

在旧环境storage服务base_path 目录下有一个 data/sync目录,里面的文件如下:

10.10.101.135_23000.mark  这个是 new_storage 的同步数据的情况

binlog.000  旧tracker的binlog

binlog.index  记录着当前正在使用哪个 binlog 文件

查看 10.10.101.135_23000.mark 的文件内容就可看到 数据同步的情况,从 scan_row_count 和 sync_row_count 的数量对比可以知道同步的进度,当两者一致的时候同步完成。

binlog_index=0

binlog_offset=1689076    binlog.xxx的偏移量,可以从这个偏移量获取下一行记录

need_sync_old=1   本storage是否是对侧storage(110.119.19.21)的源结点,同时是否需要从起点同步所有的记录

sync_old_done=1              是否同步完成过

until_timestamp=1614235090        上次同步时间结点

              scan_row_count=29122                binlog总记录数

              sync_row_count=29122                  同步的binlog行数

5.     fastdfs文件上传下载以及基础操作命令

文件上传测试

1)  修改Tracker服务器客户端配置文件

cp   /etc/fdfs/client.conf.sample   /etc/fdfs/client.conf

vim   /etc/fdfs/client.conf

修改以下配置,其它保持默认

base_path=/data/fastdfs/tracker

tracker_server= 10.10.8.85:22122  # tracker服务器IP和端口

tracker_server= 10.10.8.86:22122  #tracker服务器IP和端口

2) 执行文件上传命令

#/root/test.png 是需要上传文件路径

/usr/bin/fdfs_upload_file /etc/fdfs/client.conf /root/test.png

返回文件ID号:group1/M00/00/00/wKgAfFzMX_2AB9V9AADa-k_GxyQ840.jpg

(能返回以上文件ID,说明文件已经上传成功)

 

 

基础操作命令:

查看集群信息:

/usr/bin/fdfs_monitor   /usr/local/storage.conf    Storage节点都启动之后,可以在任一 Storage 节点上使用如下命令查看集群信息。

上传命令:

fdfs_upload_file  /etc/fdfs/client.conf  [文件名称](需全路径)

/usr/local/bin/fdfs_upload_file   [文件名称](需全路径)

下载命令:

fdfs_download_file  /etc/fdfs/client.conf   [filename]

filename:为保存到fdfs的文件;上传的时候返回的路径是什么,这边filename就写什么;默认下载到当前执行命令的目录

删除命令:

fdfs_delete_file  /etc/fdfs/client.conf  [filename]

删除storage节点:

fdfs_monitor   /etc/fdfs/client.conf   delete group1  [节点IP]

Fastdfs数据迁移方案的更多相关文章

  1. HBase 数据迁移方案介绍

    一.前言 HBase数据迁移是很常见的操作,目前业界主要的迁移方式主要分为以下几类: 图1.HBase数据迁移方案 从上面图中可看出,目前的方案主要有四类,Hadoop层有一类,HBase层有三类.下 ...

  2. HBase 数据迁移方案介绍 (转载)

    原文地址:https://www.cnblogs.com/ballwql/p/hbase_data_transfer.html 一.前言 HBase数据迁移是很常见的操作,目前业界主要的迁移方式主要分 ...

  3. 4.HBASE数据迁移方案(之snapshot):

    4.HBASE数据迁移方案:  4.1 Import/Export  4.2 distcp  4.3 CopyTable  4.4 snapshot 快照方式迁移(以USER_info:user_lo ...

  4. HBase 数据迁移方案介绍(转载)

    原文链接:https://www.cnblogs.com/ballwql/p/hbase_data_transfer.html 一.前言 HBase数据迁移是很常见的操作,目前业界主要的迁移方式主要分 ...

  5. Redis数据迁移方案

    场景 Redis实例A ---> Redis实例B,整库全量迁移 方案一: mac环境 brew install npm npm install redis-dump -g 针对RedisA: ...

  6. FastDFS数据迁移

    参考:https://blog.csdn.net/frvxh/article/details/56293502 FastDFS安装配置参考:https://www.cnblogs.com/minseo ...

  7. 多es 集群数据迁移方案

    前言 加入新公司的第二个星期的星期二 遇到另一个项目需要技术性支持:验证es多集群的数据备份方案,需要我参与验证,在这个项目中需要关注到两个集群的互通性.es集群是部署在不同的k8s环境中,K8s环境 ...

  8. 【linux】【FastDFS】FastDFS数据迁移

    后来同步的时候发现有的没有同步过来,应该是没有同步完成我就停止服务了. 最后尝试直接把fastdfs storage的data文件迁移过去即可. 1.在新的storage server服务器上停止所有 ...

  9. 从零自学Hadoop(17):Hive数据导入导出,集群数据迁移下

    阅读目录 序 将查询的结果写入文件系统 集群数据迁移一 集群数据迁移二 系列索引 本文版权归mephisto和博客园共有,欢迎转载,但须保留此段声明,并给出原文链接,谢谢合作. 文章是哥(mephis ...

随机推荐

  1. Hive 中日志的存放位置

    目前hive启动无法成功,想查看下hive的日志定位问题,但发现hive的安装目录下并没有hive的日志,后来经过在网上谷歌发现: Hive中的日志分为两种 系统日志,记录了hive的运行情况,错误状 ...

  2. The 2019 ICPC Asia Shanghai Regional Contest H Tree Partition k、Color Graph

    H题意: 给你一个n个节点n-1条无向边构成的树,每一个节点有一个权值wi,你需要把这棵树划分成k个子树,每一个子树的权值是这棵子树上所有节点权值之和. 你要输出这k棵子树的权值中那个最大的.你需要让 ...

  3. GPLT L2-006 树的遍历(二叉树)

    题意: 给定一棵二叉树的后序遍历和中序遍历,请你输出其层序遍历的序列.这里假设键值都是互不相等的正整数. 思路: 后序遍历序列 = 左子树遍历序列 + 右子树遍历序列 + 根节点. 中序遍历序列 = ...

  4. 【洛谷 p3371】模板-单源最短路径(图论)

    题目:给出一个有向图,请输出从某一点出发到所有点的最短路径长度. 解法:spfa算法. 1 #include<cstdio> 2 #include<cstdlib> 3 #in ...

  5. map详细的复习

    map 就是一种基于自建红黑树的 一一对应的hash 的容器 通过模板方式实现  map<type,type> mapname: 前边是key 后边是 vale 转载如下作者:sevenc ...

  6. HDU - 2328 Corporate Identity(kmp+暴力)

    传送门:http://acm.hdu.edu.cn/showproblem.php?pid=2328 题意:多组输入,n==0结束.给出n个字符串,求最长公共子串,长度相等则求字典序最小. 题解:(居 ...

  7. 二叉树增删改查 && 程序实现

    二叉排序树定义 一棵空树,或者是具有下列性质的二叉树:(1)若左子树不空,则左子树上所有结点的值均小于它的根结点的值:(2)若右子树不空,则右子树上所有结点的值均大于它的根结点的值:(3)左.右子树也 ...

  8. [已完成+附代码]CS:APP:Lab6-ShellLab

    由于我的第五个实验的partB部分一直出问题.而且修了好久没解决先不管了 这个实验建议一定要认真读完csapp全书的第八章.不然可能会毫无思路.千万不要上来直接做. 0. 环境配置和实验下载 利用do ...

  9. linux 部署 .net core mvc

    1.本地编写一个mvc网站 代码编辑器:Visual studio 2017.2019.Visual Code 均可 1)搭建 略. (请自行搜索如何编辑mvc,或看文末参考链接) 2)配置 Prog ...

  10. Error Code: 1055.Expression #1 of SELECT list is not in GROUP BY clause and contains nonaggregated column 'userinfo.

    环境:mysql-8.0.15-winx64 问题描述: Error querying database. Cause: java.sql.SQLSyntaxErrorException: Expre ...