一个5.7版本的MySQL单点数据库,版本信息是:

Server version: 5.7.31-log MySQL Community Server (GPL)

数据量已达到760G,日常存在性能问题,需迁移到PXC集群,由于之前几年实施使用的都是8.0版本PXC集群,这次也想当然的想直接迁移到PXC8.0。

鉴于数据量比较巨大,采用mysqldump的方式显然是不可行的,实际上项目反馈也是无法用mysqldump备份成功,mysqldump备份几百兆、几个G还是可行的,但是面对上百G的数据量已经无能为力。好在percona有XtraBackup这个备份工具,给我们做MySQL的大数据量迁移创造了便利条件。

■ 安装xtrabackup

注意:xtrabackup8.0只支持mysql8.0以上的版本,mysql5.7或以下需要使用xtrabackup8.0以下的版本

XtraBackup各版本之间的区别如下:

8.0仅支持mysql8.0

2.4专针对5.7开发,兼容5.6,5.5

2.3针对5.6开发,兼容5.5

2.2针对5.5开发

在percona官网可以方便的找到PXC以及xtrabackup各个版本的介质,xtrabackup位于:

https://www.percona.com/downloads/Percona-XtraBackup-2.4/LATEST/

可以直接下载bundle版本的介质,离线安装:

yum install percona-xtrabackup-24-2.4.9-1.el7.x86_64.rpm

安装报错缺少libev,如下安装libev即可

yum install libev-4.15-7.el7.x86_64.rpm

本次还遇见如下错误:

Error: Package: perl-DBD-MySQL-4.023-5.el7.x86_64 (centos7)
Requires: libmysqlclient.so.18()(64bit)
Error: Package: perl-DBD-MySQL-4.023-5.el7.x86_64 (centos7)
Requires: libmysqlclient.so.18(libmysqlclient_18)(64bit)
Error: Package: 2:postfix-2.10.1-6.el7.x86_64 (@anaconda)
Requires: libmysqlclient.so.18(libmysqlclient_18)(64bit)
Error: Package: 2:postfix-2.10.1-6.el7.x86_64 (@anaconda)
Requires: libmysqlclient.so.18()(64bit)

查询libmysqlclient.so,维度确实缺少libmysqlclient.so.18

[root@localhost soft]# find / -name libmysqlclient.so*

/usr/lib64/mysql/libmysqlclient.so.20

/usr/lib64/mysql/libmysqlclient.so.20.3.18

因此需确认这个lib库来自哪里,网搜查到的原因在于没有安装mysql-community-libs-compat包

到mysql官网下载:https://downloads.mysql.com/archives/community/

https://downloads.mysql.com/archives/get/p/23/file/mysql-community-libs-compat-5.7.31-1.el7.x86_64.rpm

安装上这个lib包:

yum install mysql-community-libs-compat-5.7.31-1.el7.x86_64.rpm

之后再次安装xtrabackup就可以了

■ 以下开始备份

mkdir -p /u01/xtrabackup

xtrabackup --user=root --password='passwd' --backup --target-dir=/u01/xtrabackup > xtrabackup.log 2>&1 &

211119 17:35:56 开始备份

211119 21:33:33 completed OK!

备份数据总计:

759G xtrabackup

第一次备份未开并发,耗时接近4个小时

后续开多并发备份,直接写到较快的nfs上,耗时大幅减少!

注:可新增一个复制权限的用户用于备份

create user 'backup'@'localhost' identified by 'backup';
grant reload, lock tables, process, replication client on *.* to 'backup'@'localhost';
flush privileges;

■ 在PXC 8.0.23集群还原数据库

这是一个3节点集群,计划还原在节点1。

先停掉节点1的PXC服务,包括keepalived、proxysql、mysql@bootstrap

根据源库的my.cnf配置文件,建立新的my.cnf配置文件

之后根据文档“异机恢复”(本站网搜可得)操作,准备全备份的日志时,报错如下:

[root@mysqldb1:0 /u01/mysql]# xtrabackup --prepare --apply-log-only --target-dir=/u01/nfs18/xtrabackup
xtrabackup: [Warning] option 'innodb_undo_tablespaces': unsigned value 0 adjusted to 2.
xtrabackup: recognized server arguments: --innodb_checksum_algorithm=crc32 --innodb_data_file_path=ibdata1:12M:autoextend --innodb_log_files_in_group=2 --innodb_log_file_size=50331648 --innodb_page_size=16384 --innodb_log_block_size=512 --innodb_undo_directory=./ --innodb_undo_tablespaces=0 --server-id=1
xtrabackup: recognized client arguments: --prepare=1 --apply-log-only=1 --target-dir=/u01/nfs18/xtrabackup
xtrabackup version 8.0.23-16 based on MySQL server 8.0.23 Linux (x86_64) (revision id: 934bc8f)
xtrabackup: cd to /u01/nfs18/xtrabackup/
xtrabackup: This target seems to be not prepared yet.
Number of pools: 1
xtrabackup: error: Unsupported redo log format 1
This version of Percona XtraBackup can only perform backups and restores against MySQL 8.0 and Percona Server 8.0, please use Percona Xtrabackup 2.4 for this database.

可见,没法使用8.0版本的XtraBackup恢复24版本的备份!

看来只能降级PXC集群版本到5.7了。

■ 卸载已有的PXC8版本,安装PXC57

从percona官网下载对应版本的cluster介质、xtrabackup介质

https://www.percona.com/downloads/Percona-XtraDB-Cluster-57/LATEST/

安装比较简单。

■ 根据源库配置修改新的配置文件

注意新的配置涉及多个配置文件,为避免可能的错误,需要全部确认所有的配置参数没有问题,否则可能会有意想不到的惊喜(错误)

这里涉及到一个MySQL数据库及集群的理解过程,边学习边实践也是挺有意思的,无知者无畏嘛,真是越学习越发现自己的肤浅啊。

之后就是正常的恢复、启动过程,由于本机硬盘IO性能达到800MB/s的写入速度,恢复仅用时半个多小时。

但启动时遭遇pid文件不存在、文件权限、log文件不存在等问题,逐一破解即可,最后成功启动了。

下一步就是集群构建、数据重新全迁移、增量同步、短时间割接的问题了,后文再叙。

MySQL5.7版本单节点大数据量迁移到PXC8.0版本集群全记录-1的更多相关文章

  1. boost的asio接收单路大数据量udp包的方法

    开发windows客户端接收RTP视频流,当h264视频达到1080P 60fps的时候,按包来调用recvfrom的函数压力比较大,存在丢包的问题,windows的完成端口的性能效果当然可以解决这个 ...

  2. CentOS6安装各种大数据软件 第五章:Kafka集群的配置

    相关文章链接 CentOS6安装各种大数据软件 第一章:各个软件版本介绍 CentOS6安装各种大数据软件 第二章:Linux各个软件启动命令 CentOS6安装各种大数据软件 第三章:Linux基础 ...

  3. 【大数据之数据仓库】安装部署GreenPlum集群

    本篇将向大家介绍如何快捷的安装部署GreenPlum测试集群,大家可以跟着我一块儿实践一把^_^ 1.主机资源 申请2台网易云主机,操作系统必须是RedHat或者CentOS,配置尽量高一点.如果是s ...

  4. elasticsearch5.0集群大数据量迁移方法及注意事项

    当es集群的数据量较小的情况下elasticdump这个工具比较方便,但是当数据量达到一定级别比如上百G的时候,elasticdump速度就很慢了,此时我们可以使用快照的方法进行备份 elasticd ...

  5. 大数据基础知识:分布式计算、服务器集群[zz]

    大数据中的数据量非常巨大,达到了PB级别.而且这庞大的数据之中,不仅仅包括结构化数据(如数字.符号等数据),还包括非结构化数据(如文本.图像.声音.视频等数据).这使得大数据的存储,管理和处理很难利用 ...

  6. 大数据Hadoop的HA高可用架构集群部署

        1 概述 在Hadoop 2.0.0之前,一个Hadoop集群只有一个NameNode,那么NameNode就会存在单点故障的问题,幸运的是Hadoop 2.0.0之后解决了这个问题,即支持N ...

  7. 大数据平台搭建 - cdh5.11.1 - hbase集群搭建

    一.简介 HBase是一种构建在HDFS之上的分布式.面向列的存储系统.在需要实时读写.随机访问超大规模数据集时,可以使用HBase. 尽管已经有许多数据存储和访问的策略和实现方法,但事实上大多数解决 ...

  8. 大数据平台搭建 - cdh5.11.1 - hadoop集群安装

    一.前言 由于线下测试的需要,需要在公司线下(测试)环境搭建大数据集群. 那么CDH是什么? hadoop是一个开源项目,所以很多公司再这个基础上进行商业化,不收费的hadoop版本主要有三个,分别是 ...

  9. 入门大数据---基于Zookeeper搭建Kafka高可用集群

    一.Zookeeper集群搭建 为保证集群高可用,Zookeeper 集群的节点数最好是奇数,最少有三个节点,所以这里搭建一个三个节点的集群. 1.1 下载 & 解压 下载对应版本 Zooke ...

  10. 流式大数据计算实践(2)----Hadoop集群和Zookeeper

    一.前言 1.上一文搭建好了Hadoop单机模式,这一文继续搭建Hadoop集群 二.搭建Hadoop集群 1.根据上文的流程得到两台单机模式的机器,并保证两台单机模式正常启动,记得第二台机器core ...

随机推荐

  1. 文本识别分类系统python,基于深度学习的CNN卷积神经网络算法

    一.介绍 文本分类系统,使用Python作为主要开发语言,通过TensorFlow搭建CNN卷积神经网络对十余种不同种类的文本数据集进行训练,最后得到一个h5格式的本地模型文件,然后采用Django开 ...

  2. 1. Spring相关概念

    1. 初始 Spring ‍ 1.1 Spring 家族 ‍ 官网:​https://spring.io,从官网我们可以大概了解到: Spring 能做什么:用以开发 web.微服务以及分布式系统等, ...

  3. vue-router之hash与history,以及nginx配置

    本篇讲解前端项目的路由模式(以vue-router为例),以及history模式下的项目部署问题. vue-router的路由模式可以通过指定mode属性值控制,可选值:"hash" ...

  4. google colab使用体验

    复现的TRSSL 的代码似乎是python3.8的,在本地跑电脑带不起来,即时把处理图形数改为1 但是colab用3.8不太好下载包, 因此直接上了3.9 除了一些库没有意外,遇到了一点小问题: Ca ...

  5. ChatGPT变笨了,好在还有自知之明

    大家好,我是老章 好久没有写文章了,顺便向大家汇报一下最近在忙的事情(多数无疾而终): 1 开发了一个IMG2Latex工具(截图一个公式,自动把latex代码塞进剪贴板) 2 开发了一个播客转文字稿 ...

  6. 行行AI人才直播第13期:刘红林律师《AIGC创业者4大法律问题需注意》

    行行AI人才(海南行行智能科技有限公司)是博客园和顺顺智慧共同运营的AI行业人才全生命周期服务平台. AIGC爆火至今,商业落地已成为各行各业焦点的问题.它的广泛应用也带来了一系列的法律风险和挑战.一 ...

  7. vue项目node_modules文件过大问题

    node_modules目录下.cache下最大文件删除即可(vue-loader)

  8. ValueError: Max value is 14 解决方案

    方案一(有时会失效): 将EXCEL文件中的格式全部清除即可.最好是复制,然后只粘贴值. 方案二(指定引擎): data = pd.read_excel(path, engine="open ...

  9. deepin install mariadb

    输入指令: sudo apt-get install mariadb-server mariadb-client

  10. jwt实现token鉴权(nodejs koa)

    为什么需要token 在后台管理系统中,我们通常使用cookie-session的方式用于鉴权,jwt实现token鉴权(nodejs koa) 但这种方式存在着以下问题 比如cookie的容量太小. ...