一、先说结论

如果您的StarRocks版本在3.1.4及以下,并且使用了metadata_journal_skip_bad_journal_ids来跳过某个异常的journal,结果之后就出现了FE的元数据无法进行Checkpoint的现象,那么选择升级版本到3.1.4以上,就可以解决。

二、背景

已经平稳运行了几个月的StarRocks集群突然奔溃,在恢复过程中,发现其元数据从5月16号之后一直没有进行过合并,导致BDB文件非常多,其恢复时间达到了将近2小时。

现象:

  1. 查看FE的meta/image下面的image文件的生成时间,发现为2024.5.16。
  2. 查询FE的meta/bdb目录下的.jdb文件数量的数量到达了8000多个,大小到了81G。
  3. 每次FE恢复元数据重放需要将近2小时小时。

三、排查原因

通过现象已经明确了其没有做Checkpoint操作,导致image文件一直没有更新,那么首先想到两个可能:

一是由于某些原因一直没有触发元数据的CheckPoint操作。

二是进行了CheckPoint的操作,但是由于某些原因,Checkpoint操作一直无法成功。

于是准备在日志中找相关的佐证。于是开始查询查看源码,查看进行Checkpoint操作的类Checkpoint.java(路径:fe/fe-core/src/main/java/com/starrocks/leader/Checkpoint.java),从下面的源码中可以看出,在replayAndGenerateGlobalStateMgrImage方法中,可以看到进行Checkpoint操作时其打印了相关日志,于是在fe的相关日志中查询是否输出了这些日志信息,根据其是否出现,可以判定是否做了Checkpoint操作,并且Checkpoint操作是否成功。

private boolean replayAndGenerateGlobalStateMgrImage(long logVersion) {
assert belongToGlobalStateMgr;
long replayedJournalId = -1;
// generate new image file
LOG.info("begin to generate new image: image.{}", logVersion);
globalStateMgr = GlobalStateMgr.getCurrentState();
globalStateMgr.setJournal(journal);
try {
globalStateMgr.loadImage(imageDir);
globalStateMgr.replayJournal(logVersion);
globalStateMgr.clearExpiredJobs();
globalStateMgr.saveImage();
replayedJournalId = globalStateMgr.getReplayedJournalId();
if (MetricRepo.hasInit) {
MetricRepo.COUNTER_IMAGE_WRITE.increase(1L);
}
GlobalStateMgr.getServingState().setImageJournalId(logVersion);
LOG.info("checkpoint finished save image.{}", replayedJournalId);
return true;
} catch (Exception e) {
LOG.error("Exception when generate new image file", e);
return false;
} finally {
// destroy checkpoint globalStateMgr, reclaim memory
globalStateMgr = null;
GlobalStateMgr.destroyCheckpoint();
}
}

因为个人主观觉得Checkpoint失败的可能性比较大,因此开始在fe的warn日志中执行下列语句检索相关的异常,

cat fe.warn.log | grep 'Exception when generate new image file'

可以看到在fe日志中出现了大量的Checkpoint操作失败的相关日志信息。

由以上日志再配合源码,可以发现其触发了Checkpoint操作,但是Checkpoint过程中出现了异常,导致CheckPoint过程失败,也就造成了整个image一直没有更新。继而继续查询日志,找失败的原因,在该日志信息的后面可以看到其报错信息,其信息如下:

基于上面的操作,已经得到了出现Checkpoint失败的原因,也就是得到的journal id和期望值不一致。

记录一个Linux的查询文件命令

由于StarRocks在恢复期间,整个日志文件非常的大,而且刷新很快,通过tail more等看起来非常耗时,因此百度之后发现如下两个命令配合,可以非常的方便定位异常点:

cat -n 文件 | grep '异常信息' 这个命令,可以查询出整个文件中出现异常的行,并且显示行号。

sed -n '开始行号,读取行数p' 文件 这个命令,可以从文件的某一行开始向下读取多少行。

四、解决过程与原理分析

基于上面找到的Checkpoint失败的原因,首先在高于3.1.4版本的各个版本的发布信息中查询,没有发现相关问题修复的bugfix记录。

然后在StarRocks中文论坛中进行相关的检索,虽然有相关的问题,但是都不太一致,其中最相近的一个帖子为:

无法生成image文件,fe重启后元数据还原, 其中提到了通过dump操作进行恢复,但是查询StarRocks相关的文档之后,并没有发现其中有相关操作的描述。

然后遇事不决翻源码,查看最近和Checkpoint相关的代码不是是否出现了变更,跟踪相关部分的源码发现在GlobalStateMgr.java(fe/fe-core/src/main/java/com/starrocks/server/GlobalStateMgr.java)类中的replayJournalInner方法,最近进行了一次bugfix,查看这次bugfix的问题。

本次bugfix操作的说明如下:

If metadata_journal_skip_bad_journal_ids is configured, and replay of journal failed on EditLog.loadJournal, the cursor will ignore the next journal by mistake, because the bad log data has been read and cursor is already on the next journal. So the next data should only be ignored when failure happens in cursor.next().

可以看到这个异常和使用过 metadata_journal_skip_bad_journal_ids 这个配置有关,回想5月16那天是否对StarRocks进行过相关操作。

5月16号那天StarRocks异常崩溃,在重启恢复过程中,出现了某一个journal无法加载的错误(got interrupt exception or inconsistent exception when replay journal 447554621 wii exit.),导致一直无法恢复,当时通过查询StarRocks中文论坛,找到了一篇如下的帖子:3.1.5 存算分离集群FE 宕机后没法启动, 其中提到了配置 metadata_journal_skip_bad_journal_ids 跳过该journal,当时采用了这个操作,跳过了那个journal,结合目前来看,极大可能就是这个配置导致了FE无法进行Checkpoint.

在来分析本次bugfix到底干了啥,本次bugfix的源码变更地方如下:

可以发现,其就是在获取和或加载某个journal失败的时候,调用了cursor.skipNext(),查看这个具体代表的含义:在其实现类BDBJEJournal.java(fe/fe-core/src/main/java/com/starrocks/journal/bdbje/BDBJEJournal.java)中,其实现如下:

public void skipNext() {
LOG.error("!!! DANGER: CURSOR SKIP {} !!!", nextKey);
nextKey++;
}

再看具体报错should replay to 539780547 but actual replayed journal id is 539780546的地方源码,其在

GlobalStateMgr.java(fe/fe-core/src/main/java/com/starrocks/server/GlobalStateMgr.java)中的replayJournal方法中,其实现如下:

public void replayJournal(long toJournalId) throws JournalException {
if (toJournalId <= replayedJournalId.get()) {
LOG.info("skip replay journal because {} <= {}", toJournalId,
replayedJournalId.get());
return;
} long startJournalId = replayedJournalId.get() + 1;
long replayStartTime = System.currentTimeMillis();
LOG.info("start to replay journal from {} to {}", startJournalId, toJournalId); JournalCursor cursor = null;
try {
cursor = journal.read(startJournalId, toJournalId);
replayJournalInner(cursor, false);
} catch (InterruptedException | JournalInconsistentException e) {
LOG.warn("got interrupt exception or inconsistent exception when replay
journal {}, will exit, ",replayedJournalId.get() + 1,e);
// TODO exit gracefully
Util.stdoutWithTime(e.getMessage());
System.exit(-1); } finally {
if (cursor != null) {
cursor.close();
}
} // verify if all log is replayed
if (toJournalId != replayedJournalId.get()) {
throw new JournalException(String.format(
"should replay to %d but actual replayed journal id is %d",
toJournalId, replayedJournalId.get()));
} streamLoadMgr.cancelUnDurableTaskAfterRestart(); long replayInterval = System.currentTimeMillis() - replayStartTime;
LOG.info("finish replay from {} to {} in {} msec", startJournalId, toJournalId,
replayInterval);
}

从报错新增可以看到,其判断条件是:toJournalId != replayedJournalId.get(), 那么解下来看这两个值是如何得到的。

在Checkpoint.java中可以看到toJournal来自于 journal.getFinalizedJournalId();通过其实现可以看到, 其取的是当前元数据中的最后的一个journalId。

public long getFinalizedJournalId() {
List<Long> dbNames = bdbEnvironment.getDatabaseNamesWithPrefix(prefix);
assert (dbNames != null); StringBuilder msg = new StringBuilder("database names: ");
for (long name : dbNames) {
msg.append(name).append(" ");
}
LOG.info(msg.toString()); if (dbNames.size() < 2) {
return 0;
} return dbNames.get(dbNames.size() - 1) - 1;
}

接下来再看整个日志的重放过程,replayedJournalId的初始值,就是image文件的后缀(在fe/fe-core/src/main/java/com/starrocks/persist/Storage.java的reload方法中可以看到),然后其在重放的过程中会不断+1,replayedJournalId更新的逻辑如下:

protected boolean replayJournalInner(JournalCursor cursor, boolean flowControl)
throws JournalException, InterruptedException, JournalInconsistentException {
long startReplayId = replayedJournalId.get();
long startTime = System.currentTimeMillis();
long lineCnt = 0;
while (true) {
JournalEntity entity = null;
boolean readSucc = false;
try {
entity = cursor.next(); // EOF or aggressive retry
if (entity == null) {
break;
} readSucc = true; // apply
EditLog.loadJournal(this, entity);
} catch (Throwable e) {
if (canSkipBadReplayedJournal(e)) {
LOG.error("!!! DANGER: SKIP JOURNAL, id: {}, data: {} !!!",
replayedJournalId.incrementAndGet(),
journalEntityToReadableString(entity), e);
if (!readSucc) {
cursor.skipNext();
}
continue;
}
// handled in outer loop
LOG.warn("catch exception when replaying journal, id: {}, data: {},",
replayedJournalId.get() + 1, journalEntityToReadableString(entity), e);
throw e;
} replayedJournalId.incrementAndGet();
LOG.debug("journal {} replayed.", replayedJournalId); if (feType != FrontendNodeType.LEADER) {
journalObservable.notifyObservers(replayedJournalId.get());
}
if (MetricRepo.hasInit) {
// Metric repo may not init after this replay thread start
MetricRepo.COUNTER_EDIT_LOG_READ.increase(1L);
} if (flowControl) {
// cost too much time
long cost = System.currentTimeMillis() - startTime;
if (cost > REPLAYER_MAX_MS_PER_LOOP) {
LOG.warn("replay journal cost too much time: {} replayedJournalId: {}",
cost, replayedJournalId);
break;
}
// consume too much lines
lineCnt += 1;
if (lineCnt > REPLAYER_MAX_LOGS_PER_LOOP) {
LOG.warn("replay too many journals: lineCnt {}, replayedJournalId: {}",
lineCnt, replayedJournalId);
break;
}
} }
if (replayedJournalId.get() - startReplayId > 0) {
LOG.info("replayed journal from {} - {}", startReplayId, replayedJournalId);
return true;
}
return false;
}

分析以上代码:其在while循环中不断读取journal,二而且通过replayedJournalId.incrementAndGet()不断刷新其值。

可以发现在修改前后的不同点

  • 修改前:不管的读取还是加载节点异常,其值都加1,而且如果某个失败,并且在 metadata_journal_skip_bad_journal_ids 配置了可以跳过,那么循环会继续,但是游标都会+1.
  • 修改后:加了判断,只有在日志加载中失败,游标才会+1,如果是读取成功,但是加载失败并且又被跳过,则其游标不会+1.

由此,豁然开朗,因为某个journal在EditLog加载过程中失败了,并且这个journal又因为被配置在了metadata_journal_skip_bad_journal_ids中,因此这个错误被被跳过,但是按照修改之前的代码,游标还是+1,跳过了下一个journal,导致replayedJournal的值少自增了一次,导致其值比正常的小了1。

由此,我们就确定了这哥bugfix确实解决了这个问题,因此我们的解决方案就是升级版本。

五、结果

查看该bugfix合并进入3.1相关分支的时间,发现其为2023.11.9,目前出问题的版本为3.1.4,其发布时间为2023.11.2,确定这个bugfix没有被合并进入, 于是选择进行升级,将其升级到了3.2.13.

经过5个小时左右的升级恢复,成功生成了新的image文件,BDB文件也从原先的8000多个讲到了80多个。

六、参考

整个过程中,收集到的一些相关参考资料

  1. metadata_journal_skip_bad_journal_ids:https://forum.mirrorship.cn/t/topic/10178
  2. 无法生成image文件,fe重启后元数据还原: https://forum.mirrorship.cn/t/topic/7774
  3. bugfix:https://github.com/StarRocks/starrocks/pull/33839
  4. 元数据dump相关(来自Doris,StarRocks未查询到):https://cdnd.selectdb.com/zh-CN/docs/admin-manual/maint-monitor/metadata-operation?_highlight=bdb#%E6%9F%A5%E7%9C%8B-bdbje-%E4%B8%AD%E7%9A%84%E6%95%B0%E6%8D%AE
  5. 元数据管理源码分析:https://xie.infoq.cn/article/6f2f9f56916f0eb2fdb6b001a

StarRocks元数据无法合并的更多相关文章

  1. 39、Parquet数据源之自动分区推断&合并元数据

    一.自动分区推断 1.概述 表分区是一种常见的优化方式,比如Hive中就提供了表分区的特性.在一个分区表中,不同分区的数据通常存储在不同的目录中, 分区列的值通常就包含在了分区目录的目录名中.Spar ...

  2. hadoop学习笔记肆--元数据管理机制

    1.首先,认识几个名词 (1).NameNode中读.写.以及DataNode映射等信息叫做“元数据” ,NameNode元数据存放位置有.内存.fsimage.edits log三个位置. (2). ...

  3. HDFS 05 - HDFS 的元数据管理(FSImage、EditLog、Checkpoint)

    目录 1 - NameNode 的启动流程 2 - NameNode 的元数据 2.1 EditLog 操作日志 2.2 查看 EditLog 文件 2.3 FSImage 元数据镜像 2.4 查看 ...

  4. 理“ Druid 元数据”之乱

    vivo 互联网大数据团队-Zheng Xiaofeng 一.背景 Druid 是一个专为大型数据集上的高性能切片和 OLAP 分析而设计的数据存储系统. 由于Druid 能够同时提供离线和实时数据的 ...

  5. 代码覆盖率工具 EMMA

    使用 EMMA 获得功能测试覆盖率 测试覆盖率是评价测试完整性的重要的度量标准之一. EMMA 是一个面向 Java 代码的测试覆盖率收集工具.在测试过程中,使用 EMMA 能使收集和报告测试覆盖率的 ...

  6. hadoop运维经验

    0.优化:http://dongxicheng.org/mapreduce/hadoop-optimization-0/ http://dongxicheng.org/mapreduce/hadoop ...

  7. load、save方法、spark sql的几种数据源

    load.save方法的用法          DataFrame usersDF = sqlContext.read().load("hdfs://spark1:9000/users.pa ...

  8. hadoop各个类及其作用

    1.基础包(包括工具包和安全包) 包括工具和安全包.其中,hdfs.util包含了一些HDFS实现需要的辅助数据结构:hdfs.security.token.block和hdfs.security.t ...

  9. Hadoop技术之Hadoop HA 机制学习

    欢迎大家前往腾讯云技术社区,获取更多腾讯海量技术实践干货哦~ 作者:温球良 导语 最近分享过一次关于Hadoop技术主题的演讲,由于接触时间不长,很多技术细节认识不够,也没讲清楚,作为一个技术人员,本 ...

  10. Gradle 1.12用户指南翻译——第三十八章. Eclipse 插件

    本文由CSDN博客万一博主翻译,其他章节的翻译请参见: http://blog.csdn.net/column/details/gradle-translation.html 翻译项目请关注Githu ...

随机推荐

  1. 深入理解Java并发读写锁——ReentrantReadWriteLock

    ReentrantReadWriteLock使用场景 ReentrantReadWriteLock 是 Java 的一种读写锁,它允许多个读线程同时访问,但只允许一个写线程访问(会阻塞所有的读写线程) ...

  2. 云原生周刊:Flux 2.3 发布 | 2024.5.20

    开源项目推荐 kubeinvaders kubeinvaders 专为 Kubernetes 用户设计.它提供了一种有趣而交互式的方式来探索和可视化您的 Kubernetes 集群.通过类似游戏的界面 ...

  3. 格点拉格朗日插值与PME算法

    技术背景 在前面的一篇博客中,我们介绍了拉格朗日插值法的基本由来和表示形式.这里我们要介绍一种拉格朗日插值法的应用场景:格点拉格朗日插值法.这种场景的优势在于,如果我们要对整个实数空间进行求和或者积分 ...

  4. JetBrains IDEs 软件全破解

    JetBrains IDE相关产品是一系列专为不同编程语言和平台设计的智能开发工具,它们可以帮助开发者提高效率,编写高质量的代码,和享受编程的乐趣.为当世最有影响力的IDE之一. JB 软件分为都分为 ...

  5. Hadoop习题汇总

    目录 选择 单选 多选 判断 填空 简答 选择 单选 查看HDFS系统版本的Shell命令,以下正确的是(). hdfs -ver hdfs version (答案) dfsadmin version ...

  6. ABC370 E - Avoid K Partition

    ABC370 E - Avoid K Partition 求一个序列的合法划分方案数.一种划分合法当且仅当没有一个子串的和是 \(k\). 由于是否存在子串和为 \(k\) 很重要,因此考虑将它加入状 ...

  7. MathType 使用技巧

    matytype: 一次性更改所有公式的字体. 在安装有MathType的Word中,我们可以选中 mathtype 公式,用 alt+\ 切换为Latex语句,反之亦然.例如:$a_b$ 变为 ab ...

  8. WIN10 SERVICES -- 部署IIS

    一 . 添加角色功能 二. 添加WEB服务器(IIS) 三. 打开TCP ASP.NET 安装 供运行端口

  9. 鸿蒙开发Hvigor任务简介

    编译构建工具DevEco Hvigor(以下简称Hvigor)是一款基于TS实现的构建任务编排工具,主要提供任务管理机制,包括任务注册编排.工程模型管理.配置管理等关键能力,提供专用于构建和测试应用的 ...

  10. typeScript 基础类型 (三)

    typeScript 的基础类型包含 Boolean.Number.String.null.undefined 以及 ES6 的  Symbol 和 ES10 的 BigInt. 下面介绍每种类型的使 ...