StarRocks元数据无法合并
一、先说结论
如果您的StarRocks版本在3.1.4及以下,并且使用了metadata_journal_skip_bad_journal_ids来跳过某个异常的journal,结果之后就出现了FE的元数据无法进行Checkpoint的现象,那么选择升级版本到3.1.4以上,就可以解决。
二、背景
已经平稳运行了几个月的StarRocks集群突然奔溃,在恢复过程中,发现其元数据从5月16号之后一直没有进行过合并,导致BDB文件非常多,其恢复时间达到了将近2小时。
现象:
- 查看FE的meta/image下面的image文件的生成时间,发现为2024.5.16。
- 查询FE的meta/bdb目录下的.jdb文件数量的数量到达了8000多个,大小到了81G。
- 每次FE恢复元数据重放需要将近2小时小时。
三、排查原因
通过现象已经明确了其没有做Checkpoint操作,导致image文件一直没有更新,那么首先想到两个可能:
一是由于某些原因一直没有触发元数据的CheckPoint操作。
二是进行了CheckPoint的操作,但是由于某些原因,Checkpoint操作一直无法成功。
于是准备在日志中找相关的佐证。于是开始查询查看源码,查看进行Checkpoint操作的类Checkpoint.java(路径:fe/fe-core/src/main/java/com/starrocks/leader/Checkpoint.java),从下面的源码中可以看出,在replayAndGenerateGlobalStateMgrImage方法中,可以看到进行Checkpoint操作时其打印了相关日志,于是在fe的相关日志中查询是否输出了这些日志信息,根据其是否出现,可以判定是否做了Checkpoint操作,并且Checkpoint操作是否成功。
private boolean replayAndGenerateGlobalStateMgrImage(long logVersion) {
assert belongToGlobalStateMgr;
long replayedJournalId = -1;
// generate new image file
LOG.info("begin to generate new image: image.{}", logVersion);
globalStateMgr = GlobalStateMgr.getCurrentState();
globalStateMgr.setJournal(journal);
try {
globalStateMgr.loadImage(imageDir);
globalStateMgr.replayJournal(logVersion);
globalStateMgr.clearExpiredJobs();
globalStateMgr.saveImage();
replayedJournalId = globalStateMgr.getReplayedJournalId();
if (MetricRepo.hasInit) {
MetricRepo.COUNTER_IMAGE_WRITE.increase(1L);
}
GlobalStateMgr.getServingState().setImageJournalId(logVersion);
LOG.info("checkpoint finished save image.{}", replayedJournalId);
return true;
} catch (Exception e) {
LOG.error("Exception when generate new image file", e);
return false;
} finally {
// destroy checkpoint globalStateMgr, reclaim memory
globalStateMgr = null;
GlobalStateMgr.destroyCheckpoint();
}
}
因为个人主观觉得Checkpoint失败的可能性比较大,因此开始在fe的warn日志中执行下列语句检索相关的异常,
cat fe.warn.log | grep 'Exception when generate new image file'
可以看到在fe日志中出现了大量的Checkpoint操作失败的相关日志信息。

由以上日志再配合源码,可以发现其触发了Checkpoint操作,但是Checkpoint过程中出现了异常,导致CheckPoint过程失败,也就造成了整个image一直没有更新。继而继续查询日志,找失败的原因,在该日志信息的后面可以看到其报错信息,其信息如下:

基于上面的操作,已经得到了出现Checkpoint失败的原因,也就是得到的journal id和期望值不一致。
记录一个Linux的查询文件命令
由于StarRocks在恢复期间,整个日志文件非常的大,而且刷新很快,通过tail more等看起来非常耗时,因此百度之后发现如下两个命令配合,可以非常的方便定位异常点:
cat -n 文件 | grep '异常信息' 这个命令,可以查询出整个文件中出现异常的行,并且显示行号。
sed -n '开始行号,读取行数p' 文件 这个命令,可以从文件的某一行开始向下读取多少行。
四、解决过程与原理分析
基于上面找到的Checkpoint失败的原因,首先在高于3.1.4版本的各个版本的发布信息中查询,没有发现相关问题修复的bugfix记录。
然后在StarRocks中文论坛中进行相关的检索,虽然有相关的问题,但是都不太一致,其中最相近的一个帖子为:
无法生成image文件,fe重启后元数据还原, 其中提到了通过dump操作进行恢复,但是查询StarRocks相关的文档之后,并没有发现其中有相关操作的描述。

然后遇事不决翻源码,查看最近和Checkpoint相关的代码不是是否出现了变更,跟踪相关部分的源码发现在GlobalStateMgr.java(fe/fe-core/src/main/java/com/starrocks/server/GlobalStateMgr.java)类中的replayJournalInner方法,最近进行了一次bugfix,查看这次bugfix的问题。
本次bugfix操作的说明如下:
If metadata_journal_skip_bad_journal_ids is configured, and replay of journal failed on EditLog.loadJournal, the cursor will ignore the next journal by mistake, because the bad log data has been read and cursor is already on the next journal. So the next data should only be ignored when failure happens in cursor.next().
可以看到这个异常和使用过 metadata_journal_skip_bad_journal_ids 这个配置有关,回想5月16那天是否对StarRocks进行过相关操作。
5月16号那天StarRocks异常崩溃,在重启恢复过程中,出现了某一个journal无法加载的错误(got interrupt exception or inconsistent exception when replay journal 447554621 wii exit.),导致一直无法恢复,当时通过查询StarRocks中文论坛,找到了一篇如下的帖子:3.1.5 存算分离集群FE 宕机后没法启动, 其中提到了配置 metadata_journal_skip_bad_journal_ids 跳过该journal,当时采用了这个操作,跳过了那个journal,结合目前来看,极大可能就是这个配置导致了FE无法进行Checkpoint.

在来分析本次bugfix到底干了啥,本次bugfix的源码变更地方如下:

可以发现,其就是在获取和或加载某个journal失败的时候,调用了cursor.skipNext(),查看这个具体代表的含义:在其实现类BDBJEJournal.java(fe/fe-core/src/main/java/com/starrocks/journal/bdbje/BDBJEJournal.java)中,其实现如下:
public void skipNext() {
LOG.error("!!! DANGER: CURSOR SKIP {} !!!", nextKey);
nextKey++;
}
再看具体报错should replay to 539780547 but actual replayed journal id is 539780546的地方源码,其在
GlobalStateMgr.java(fe/fe-core/src/main/java/com/starrocks/server/GlobalStateMgr.java)中的replayJournal方法中,其实现如下:
public void replayJournal(long toJournalId) throws JournalException {
if (toJournalId <= replayedJournalId.get()) {
LOG.info("skip replay journal because {} <= {}", toJournalId,
replayedJournalId.get());
return;
}
long startJournalId = replayedJournalId.get() + 1;
long replayStartTime = System.currentTimeMillis();
LOG.info("start to replay journal from {} to {}", startJournalId, toJournalId);
JournalCursor cursor = null;
try {
cursor = journal.read(startJournalId, toJournalId);
replayJournalInner(cursor, false);
} catch (InterruptedException | JournalInconsistentException e) {
LOG.warn("got interrupt exception or inconsistent exception when replay
journal {}, will exit, ",replayedJournalId.get() + 1,e);
// TODO exit gracefully
Util.stdoutWithTime(e.getMessage());
System.exit(-1);
} finally {
if (cursor != null) {
cursor.close();
}
}
// verify if all log is replayed
if (toJournalId != replayedJournalId.get()) {
throw new JournalException(String.format(
"should replay to %d but actual replayed journal id is %d",
toJournalId, replayedJournalId.get()));
}
streamLoadMgr.cancelUnDurableTaskAfterRestart();
long replayInterval = System.currentTimeMillis() - replayStartTime;
LOG.info("finish replay from {} to {} in {} msec", startJournalId, toJournalId,
replayInterval);
}
从报错新增可以看到,其判断条件是:toJournalId != replayedJournalId.get(), 那么解下来看这两个值是如何得到的。
在Checkpoint.java中可以看到toJournal来自于 journal.getFinalizedJournalId();通过其实现可以看到, 其取的是当前元数据中的最后的一个journalId。
public long getFinalizedJournalId() {
List<Long> dbNames = bdbEnvironment.getDatabaseNamesWithPrefix(prefix);
assert (dbNames != null);
StringBuilder msg = new StringBuilder("database names: ");
for (long name : dbNames) {
msg.append(name).append(" ");
}
LOG.info(msg.toString());
if (dbNames.size() < 2) {
return 0;
}
return dbNames.get(dbNames.size() - 1) - 1;
}
接下来再看整个日志的重放过程,replayedJournalId的初始值,就是image文件的后缀(在fe/fe-core/src/main/java/com/starrocks/persist/Storage.java的reload方法中可以看到),然后其在重放的过程中会不断+1,replayedJournalId更新的逻辑如下:
protected boolean replayJournalInner(JournalCursor cursor, boolean flowControl)
throws JournalException, InterruptedException, JournalInconsistentException {
long startReplayId = replayedJournalId.get();
long startTime = System.currentTimeMillis();
long lineCnt = 0;
while (true) {
JournalEntity entity = null;
boolean readSucc = false;
try {
entity = cursor.next();
// EOF or aggressive retry
if (entity == null) {
break;
}
readSucc = true;
// apply
EditLog.loadJournal(this, entity);
} catch (Throwable e) {
if (canSkipBadReplayedJournal(e)) {
LOG.error("!!! DANGER: SKIP JOURNAL, id: {}, data: {} !!!",
replayedJournalId.incrementAndGet(),
journalEntityToReadableString(entity), e);
if (!readSucc) {
cursor.skipNext();
}
continue;
}
// handled in outer loop
LOG.warn("catch exception when replaying journal, id: {}, data: {},",
replayedJournalId.get() + 1, journalEntityToReadableString(entity), e);
throw e;
}
replayedJournalId.incrementAndGet();
LOG.debug("journal {} replayed.", replayedJournalId);
if (feType != FrontendNodeType.LEADER) {
journalObservable.notifyObservers(replayedJournalId.get());
}
if (MetricRepo.hasInit) {
// Metric repo may not init after this replay thread start
MetricRepo.COUNTER_EDIT_LOG_READ.increase(1L);
}
if (flowControl) {
// cost too much time
long cost = System.currentTimeMillis() - startTime;
if (cost > REPLAYER_MAX_MS_PER_LOOP) {
LOG.warn("replay journal cost too much time: {} replayedJournalId: {}",
cost, replayedJournalId);
break;
}
// consume too much lines
lineCnt += 1;
if (lineCnt > REPLAYER_MAX_LOGS_PER_LOOP) {
LOG.warn("replay too many journals: lineCnt {}, replayedJournalId: {}",
lineCnt, replayedJournalId);
break;
}
}
}
if (replayedJournalId.get() - startReplayId > 0) {
LOG.info("replayed journal from {} - {}", startReplayId, replayedJournalId);
return true;
}
return false;
}
分析以上代码:其在while循环中不断读取journal,二而且通过replayedJournalId.incrementAndGet()不断刷新其值。
可以发现在修改前后的不同点
- 修改前:不管的读取还是加载节点异常,其值都加1,而且如果某个失败,并且在 metadata_journal_skip_bad_journal_ids 配置了可以跳过,那么循环会继续,但是游标都会+1.
- 修改后:加了判断,只有在日志加载中失败,游标才会+1,如果是读取成功,但是加载失败并且又被跳过,则其游标不会+1.
由此,豁然开朗,因为某个journal在EditLog加载过程中失败了,并且这个journal又因为被配置在了metadata_journal_skip_bad_journal_ids中,因此这个错误被被跳过,但是按照修改之前的代码,游标还是+1,跳过了下一个journal,导致replayedJournal的值少自增了一次,导致其值比正常的小了1。
由此,我们就确定了这哥bugfix确实解决了这个问题,因此我们的解决方案就是升级版本。
五、结果
查看该bugfix合并进入3.1相关分支的时间,发现其为2023.11.9,目前出问题的版本为3.1.4,其发布时间为2023.11.2,确定这个bugfix没有被合并进入, 于是选择进行升级,将其升级到了3.2.13.
经过5个小时左右的升级恢复,成功生成了新的image文件,BDB文件也从原先的8000多个讲到了80多个。
六、参考
整个过程中,收集到的一些相关参考资料
- metadata_journal_skip_bad_journal_ids:https://forum.mirrorship.cn/t/topic/10178
- 无法生成image文件,fe重启后元数据还原: https://forum.mirrorship.cn/t/topic/7774
- bugfix:https://github.com/StarRocks/starrocks/pull/33839
- 元数据dump相关(来自Doris,StarRocks未查询到):https://cdnd.selectdb.com/zh-CN/docs/admin-manual/maint-monitor/metadata-operation?_highlight=bdb#%E6%9F%A5%E7%9C%8B-bdbje-%E4%B8%AD%E7%9A%84%E6%95%B0%E6%8D%AE
- 元数据管理源码分析:https://xie.infoq.cn/article/6f2f9f56916f0eb2fdb6b001a
StarRocks元数据无法合并的更多相关文章
- 39、Parquet数据源之自动分区推断&合并元数据
一.自动分区推断 1.概述 表分区是一种常见的优化方式,比如Hive中就提供了表分区的特性.在一个分区表中,不同分区的数据通常存储在不同的目录中, 分区列的值通常就包含在了分区目录的目录名中.Spar ...
- hadoop学习笔记肆--元数据管理机制
1.首先,认识几个名词 (1).NameNode中读.写.以及DataNode映射等信息叫做“元数据” ,NameNode元数据存放位置有.内存.fsimage.edits log三个位置. (2). ...
- HDFS 05 - HDFS 的元数据管理(FSImage、EditLog、Checkpoint)
目录 1 - NameNode 的启动流程 2 - NameNode 的元数据 2.1 EditLog 操作日志 2.2 查看 EditLog 文件 2.3 FSImage 元数据镜像 2.4 查看 ...
- 理“ Druid 元数据”之乱
vivo 互联网大数据团队-Zheng Xiaofeng 一.背景 Druid 是一个专为大型数据集上的高性能切片和 OLAP 分析而设计的数据存储系统. 由于Druid 能够同时提供离线和实时数据的 ...
- 代码覆盖率工具 EMMA
使用 EMMA 获得功能测试覆盖率 测试覆盖率是评价测试完整性的重要的度量标准之一. EMMA 是一个面向 Java 代码的测试覆盖率收集工具.在测试过程中,使用 EMMA 能使收集和报告测试覆盖率的 ...
- hadoop运维经验
0.优化:http://dongxicheng.org/mapreduce/hadoop-optimization-0/ http://dongxicheng.org/mapreduce/hadoop ...
- load、save方法、spark sql的几种数据源
load.save方法的用法 DataFrame usersDF = sqlContext.read().load("hdfs://spark1:9000/users.pa ...
- hadoop各个类及其作用
1.基础包(包括工具包和安全包) 包括工具和安全包.其中,hdfs.util包含了一些HDFS实现需要的辅助数据结构:hdfs.security.token.block和hdfs.security.t ...
- Hadoop技术之Hadoop HA 机制学习
欢迎大家前往腾讯云技术社区,获取更多腾讯海量技术实践干货哦~ 作者:温球良 导语 最近分享过一次关于Hadoop技术主题的演讲,由于接触时间不长,很多技术细节认识不够,也没讲清楚,作为一个技术人员,本 ...
- Gradle 1.12用户指南翻译——第三十八章. Eclipse 插件
本文由CSDN博客万一博主翻译,其他章节的翻译请参见: http://blog.csdn.net/column/details/gradle-translation.html 翻译项目请关注Githu ...
随机推荐
- Java统计list集合中重复的元素
本题目能够从宏观上理解list.set.map三大集合的特点: 解决思路是:使用一个map,key用来记录list中的数据,我们知道set集合不允许元素重复,正好在map的jdk8的api中有一个ke ...
- 2.搭建K8S集群前置知识
搭建K8S集群 搭建k8s环境平台规划 单master集群 单个master节点,然后管理多个node节点 多master集群 多个master节点,管理多个node节点,同时中间多了一个负载均衡的过 ...
- 【一步步开发AI运动小程序】六、人体骨骼图绘制
随着人工智能技术的不断发展,阿里体育等IT大厂,推出的"乐动力"."天天跳绳"AI运动APP,让云上运动会.线上运动会.健身打卡.AI体育指导等概念空前火热.那 ...
- php字符串练习题
把以前发给别人的练习题邮件备份记录一下 1.用php编写统计二维数组内某个字符出现的次数的一个函数.给定二维数组和字符串,返回这个字符串在二维数组中出现的次数. 例: 数组如下: $array=arr ...
- cornerstone中raft_server源码解析
1.概述 cornerstone中核心即为raft_server的实现. 在raft里面有follower,leader,candidate三种角色,且角色身份还可以相互切换. 写三个类followe ...
- tcp全连接满了怎么处理
cat /proc/sys/net/ipv4/tcp_max_syn_backlog #syn队列最大长度 netstat -ntl | grep SYN_RECV | wc -l #syn队列当前长 ...
- 使用sqlparse解析table_name,支持子查询, left join等
import sqlparse from sqlparse.sql import IdentifierList, Identifier from sqlparse.tokens import Keyw ...
- Python通过requests模块处理form-data请求格式
1.安装 requests_toolbelt 模块,引入该模块下的 MultipartEncoder 2.在 请求体 中使用该模块函数,请求头中增加对应参数值 from requests_toolbe ...
- (Python基础教程之四)Python中的变量的使用
Python基础教程 在SublimeEditor中配置Python环境 Python代码中添加注释 Python中的变量的使用 Python中的数据类型 Python中的关键字 Python字符串操 ...
- Python之常见问题
一.问题出现:使用Pycharm设置虚拟环境后,打开终端出现如下报错:无法加载文件-\venv\Scripts\activate.ps1,因为在此系统上禁止运行脚本. 解决方式已管理员的身份打开pow ...