Hadoop记录-Ganglia监控HDFS和HBase指标说明
HDFS相关
datanode相关
| 参数 | 解释 |
|---|---|
| dfs.datanode.blockChecksumOp_avg_time | 块校验平均时间 |
| dfs.datanode.blockChecksumOp_num_ops | 块检验次数 |
| dfs.datanode.blockReports_avg_time | 块报告平均时间 |
| dfs.datanode.blockReports_num_ops | 块报告次数 |
| dfs.datanode.block_verification_failures | 块验证失败次数 |
| dfs.datanode.blocks_read | 从硬盘读块总次数 |
| dfs.datanode.blocks_removed | 删除块数目 |
| dfs.datanode.blocks_replicated | 块复制总次数 |
| dfs.datanode.blocks_verified | 块验证总次数 |
| dfs.datanode.blocks_written | 向硬盘写块总次数 |
| dfs.datanode.bytes_read | 读出总字节包含crc验证文件字节数 |
| dfs.datanode.bytes_written | 写入总字节数(在写入每个packet时计数) |
| dfs.datanode.copyBlockOp_avg_time | 复制块平均时间 |
| dfs.datanode.copyBlockOp_num_ops | 复制块次数 |
| dfs.datanode.heartBeats_avg_time | 向namenode汇报平均时间 |
| dfs.datanode.heartBeats_num_ops | 向namenode汇报总次数 |
| dfs.datanode.readBlockOp_avg_time | 读块平均时间(单位ms) |
| dfs.datanode.readBlockOp_num_ops | 读块总次数 |
| dfs.datanode.reads_from_local_client | 从本地读入块次数 |
| dfs.datanode.reads_from_remote_client | 从远程读入块次数 |
| dfs.datanode.replaceBlockOp_avg_time | 替换块平均时间(负载均衡策略) |
| dfs.datanode.replaceBlockOp_num_ops | 替换块次数(负载均衡策略) |
| dfs.datanode.volumeFailures | notfound |
| dfs.datanode.writeBlockOp_avg_time | 写块平均时间 |
| dfs.datanode.writeBlockOp_num_ops | 写块总次数一般和dfs.datanode.blocks_written |
| dfs.datanode.writes_from_local_client | 写本地次数 |
| dfs.datanode.writes_from_remote_client | 写远程次数 |
JVM相关
| 参数 | 解释 |
|---|---|
| jvm.metrics.gcCount | gc总次数 |
| jvm.metrics.gcTimeMillis | gc总耗时(ms) |
| jvm.metrics.logErro | jvm Error次数 |
| jvm.metrics.logFatal | jvm出现fatal次数 |
| jvm.metrics.logInfo | jvm 出现Info的次数 |
| jvm.metrics.logWarn | jvm出现warn的次数 |
| jvm.metrics.maxMemoryM | jvm试图使用最大内存(M),如果没有限制返回Long.MAX_VALUE |
| jvm.metrics.memHeapCommittedM | jvm提交堆内存大小 |
| jvm.metrics.memHeapUsedM | jvm使用堆内存大小 |
| jvm.metrics.memNonHeapCommittedM | jvm非堆内存已提交大小 |
| jvm.metrics.memNonHeapUsedM | jvm非堆内存已使用大小 |
| jvm.metrics.threadsBlocked | 正在阻塞等待监视器锁的线程数目 |
| jvm.metrics.threadsNew | 尚未启动的线程数目 |
| jvm.metrics.threadsRunnable | 正在执行状态的线程数目 |
| jvm.metrics.threadsTerminated | 已退出线程数目 |
| jvm.metrics.threadsTimedWaiting | 等待另一个线程执行取决于指定等待时间的操作的线程数目 |
| jvm.metrics.threadsWaiting | 无限期地等待另一个线程来执行某一特定操作的线程数目 |
RPC相关
| 参数 | 解释 |
|---|---|
| rpc.metrics.NumOpenConnections | number of open connections rpc连接打开的数目 |
| rpc.metrics.ReceivedBytes | number of bytes received rpc收到的字节数 |
| rpc.metrics.RpcProcessingTime_avg_time | Average time for RPC Operations in last interval rpc在最近的交互中平均操作时间 |
| rpc.metrics.RpcProcessingTime_num_ops | rpc在最近的交互中连接数目 |
| rpc.metrics.RpcQueueTime_avg_time | rpc在交互中平均等待时间 |
| rpc.metrics.RpcQueueTime_num_ops | rpc queue中完成的rpc操作数目 |
| rpc.metrics.SentBytes | number of bytes sent rpc发送的数据字节 |
| rpc.metrics.callQueueLen | length of the rpc queue rpc 队列长度 |
| rpc.metrics.rpcAuthenticationFailures | number of failed authentications rpc 验证失败次数 |
| rpc.metrics.rpcAuthenticationSuccesses | number of successful authentications 验证成功数 |
| rpc.metrics.rpcAuthorizationFailures | number of failed authorizations 授权失败次数 |
| rpc.metrics.rpcAuthorizationSuccesses | number of successful authorizations 成功次数 |
MapReduce相关
| 参数 | 解释 |
|---|---|
| mapred.shuffleInput.shuffle_failed_fetches | 从map输出中取数据过程中获取失败次数 |
| mapred.shuffleInput.shuffle_fetchers_busy_percent | 在获取map输出过程中并行获取线程忙碌占总并行获取线程百分比 |
| mapred.shuffleInput.shuffle_input_bytes | shuffle过程中读入数据字节 |
| mapred.shuffleInput.shuffle_success_fetches | 从map输出中取数据过程中获取成功次数 |
| mapred.shuffleOutput.shuffle_failed_outputs | 向reduce发送map输出失败次数 |
| mapred.shuffleOutput.shuffle_handler_busy_percent | 向reduce发送map输出中server线程忙碌占总工作线程(在tasktracker.http.threads中配置)百分比。 |
| mapred.shuffleOutput.shuffle_output_bytes | shuffle过程中输出数据字节 |
| mapred.shuffleOutput.shuffle_success_outputs | 向reduce成功 |
| mapred.tasktracker.mapTaskSlots | 设置map槽数 |
| mapred.tasktracker.maps_running | 正在运行的map数 |
| mapred.tasktracker.reduceTaskSlots | 设置reduce槽数 |
| mapred.tasktracker.reduces_running | 正在运行的reduce数 |
| mapred.tasktracker.tasks_completed | 完成任务数 |
| mapred.tasktracker.tasks_failed_ping | 因tasktracker与task交互失败导致的失败的task数目 |
| mapred.tasktracker.tasks_failed_timeout | 因task未在mapred.task.timeout配置的(默认10分钟)时间内汇报进度而超时kill的task数目 |
rpc detailed 相关
| 参数 | 解释 |
|---|---|
| rpc.detailed-metrics.canCommit_avg_time | rpc询问是否提交任务平均时间 |
| rpc.detailed-metrics.canCommit_num_ops | rpc询问是否提交任务次数 |
| rpc.detailed-metrics.commitPending_avg_time | rpc报告任务提交完成,但是该提交仍然处于pending状态的平均时间 |
| rpc.detailed-metrics.commitPending_num_ops | rpc报告任务提交完成,但是该提交仍然处于pending状态的次数 |
| rpc.detailed-metrics.done_avg_time | rpc报告任务成功完成的平均时间 |
| rpc.detailed-metrics.done_num_ops | rpc报告任务成功完成的次数 |
| rpc.detailed-metrics.fatalError_avg_time | rpc报告任务出现fatalerror的平均时间 |
| rpc.detailed-metrics.fatalError_num_ops | rpc报告任务出现fatalerror的次数 |
| rpc.detailed-metrics.getBlockInfo_avg_time | 从指定datanode获取block的平均时间 |
| rpc.detailed-metrics.getBlockInfo_num_ops | 从指定datanode获取block的次数 |
| rpc.detailed-metrics.getMapCompletionEvents_avg_time | reduce获取已经完成的map输出地址事件的平均时间 |
| rpc.detailed-metrics.getMapCompletionEvents_num_ops | reduce获取已经完成的map输出地址事件的次数 |
| rpc.detailed-metrics.getProtocolVersion_avg_time | 获取rpc协议版本信息的平均时间 |
| rpc.detailed-metrics.getProtocolVersion_num_ops | 获取rpc协议版本信息的次数 |
| rpc.detailed-metrics.getTask_avg_time | 当子进程启动后,获取jvmtask的平均时间 |
| rpc.detailed-metrics.getTask_num_ops | 当子进程启动后,获取jvmtask的次数 |
| rpc.detailed-metrics.ping_avg_time | 子进程周期性的检测父进程是否还存活的平均时间 |
| rpc.detailed-metrics.ping_num_ops | 子进程周期性的检测父进程是否还存活的次数 |
| rpc.detailed-metrics.recoverBlock_avg_time | 为指定的block开始恢复标记生成的平均时间 |
| rpc.detailed-metrics.recoverBlock_num_ops | 为指定的block开始恢复标记生成的次数 |
| rpc.detailed-metrics.reportDiagnosticInfo_avg_time | 向父进程报告任务错误消息的平均时间,该操作应尽可能少,这些消息会在jobtracker中保存 |
| rpc.detailed-metrics.reportDiagnosticInfo_num_ops | 向父进程报告任务错误消息的次数 |
| rpc.detailed-metrics.startBlockRecovery_avg_time | 开始恢复block的平均时间 |
| rpc.detailed-metrics.startBlockRecovery_num_ops | 开始恢复block的次数 |
| rpc.detailed-metrics.statusUpdate_avg_time | 汇报子进程进度给父进程的平均时间 |
| rpc.detailed-metrics.statusUpdate_num_ops | 汇报子进程进度给父进程的次数 |
| rpc.detailed-metrics.updateBlock_avg_time | 更新block到新的标记及长度的平均操作时间 |
| rpc.detailed-metrics.updateBlock_num_ops | 更新block到新的标记及长度的次数 |
HBase相关
| 参数 | 解释 |
|---|---|
| hbase.regionserver.blockCacheCount | 内存中缓存块(block cache)数。缓存中StoreFiles(HFiles)的块(block)数量。 |
| hbase.regionserver.blockCacheEvictedCount | 因超出堆大小限制,从缓存中释放的块数量。 |
| hbase.regionserver.blockCacheFree | 可用的缓存块容量。 |
| hbase.regionserver.blockCacheHitCachingRatio | 缓存块的缓存命中率(0-100)。读取的缓存命中率被配置为查看缓存(如cacheblocks=true)。 |
| hbase.regionserver.blockCacheHitCount | StoreFiles(HFiles)从缓存中读取的块数量。 |
| hbase.regionserver.blockCacheHitRatio | 缓存块的命中率(0-100).包括所有读请求,尽管cacheBlocks=false的读出会被计为cache丢失。 |
| hbase.regionserver.blockCacheMissCount | 被StoreFiles (HFiles)请求但是未从缓存中读出的块数量。 |
| hbase.regionserver.blockCacheSize | 内存中块缓存的容量,特指被blockcache占用的内存容量。 |
| hbase.regionserver.compactionQueueSize | Compaction队列大小,用于compaction的RegionServer中的Store个数。 |
| hbase.regionserver.flushQueueSize | MemStore中等待flush操作的排队region数量。 |
| hbase.regionserver.fsReadLatency_avg_time | 文件系统延迟(ms)。从HDFS读操作的平均时间。 |
| hbase.regionserver.memstoreSizeMB | 当前RegionServer中所有Memstore的总容量(MB)。 |
| hbase.regionserver.requests | 总 的读和写请求次数。请求相当于RegionServer的RPC调用,因此一个Get相当于一次请求,但是哪怕Scan的caching值设置为 1000,对SCAN每个“下一次”调用仅相当于一次请求,(例如,非每行)。对于大数据块的请求,每个 HFile对应一次请求。 |
| hbase.regionserver.storefileIndexSizeMB | RegionServer中 StoreFile文件索引大小的总和(MB)。 |
Hadoop记录-Ganglia监控HDFS和HBase指标说明的更多相关文章
- Hadoop记录- zookeeper 监控指标
目前zookeeper获取监控指标已知的有两种方式: 1.通过zookeeper自带的 four letter words command 获取各种各样的监控指标 2.通过JMX Client连接zo ...
- 使用ganglia监控hadoop及hbase集群
一.Ganglia简介 Ganglia 是 UC Berkeley 发起的一个开源监视项目,设计用于测量数以千计的节点.每台计算机都运行一个收集和发送度量数据(如处理器速度.内存使用量等)的名为 gm ...
- 第十二章 Ganglia监控Hadoop及Hbase集群性能(安装配置)
1 Ganglia简介 Ganglia 是 UC Berkeley 发起的一个开源监视项目,设计用于测量数以千计的节点.每台计算机都运行一个收集和发送度量数据(如处理器速度.内存使用量等)的名为 gm ...
- 使用ganglia监控hadoop及hbase集群 分类: B3_LINUX 2015-03-06 20:53 646人阅读 评论(0) 收藏
介绍性内容来自:http://www.uml.org.cn/sjjm/201305171.asp 一.Ganglia简介 Ganglia 是 UC Berkeley 发起的一个开源监视项目,设计用于测 ...
- Hadoop记录-Hadoop监控指标汇总
系统参数监控metrics load_one 每分钟的系统平均负载 load_fifteen 每15分钟的系统平均负载 load_five 每5 ...
- Ganglia监控Hadoop集群的安装部署[转]
Ganglia监控Hadoop集群的安装部署 一. 安装环境 Ubuntu server 12.04 安装gmetad的机器:192.168.52.105 安装gmond的机 器:192.168.52 ...
- Ganglia 监控Hadoop
Ganglia监控Hadoop集群的安装部署 一. 安装环境 Ubuntu server 12.04 安装gmetad的机器:192.168.52.105 安装gmond的机 器:192.168.52 ...
- 大数据Hadoop核心架构HDFS+MapReduce+Hbase+Hive内部机理详解
微信公众号[程序员江湖] 作者黄小斜,斜杠青年,某985硕士,阿里 Java 研发工程师,于 2018 年秋招拿到 BAT 头条.网易.滴滴等 8 个大厂 offer,目前致力于分享这几年的学习经验. ...
- Ganglia监控Hadoop集群的安装部署
一. 安装环境 Ubuntu server 12.04 安装gmetad的机器:192.168.52.105 安装gmond的机器:192.168.52.31,192.168.52.32,192.16 ...
随机推荐
- PHP——判断数组中是否有重复值并找出重复值
可以用来测试需要唯一凭据号码的,是否有重复值,不过一般直接使用uuid了,简单粗暴就解决问题,这个就简单的测试生成的数据是否有重复值吧 <?php /* * @Author: wyy * @Da ...
- IDEA 根据 Mysql 自动生成
1 找到 没有的,file--project structure--modules--+--JPA 2 找到如下 添加Mysql连接,记得 Text Connecting一下看看 然后刷新,就可以出 ...
- flask之三方组件
Flask-session Flask-session跟框架自带的session有什么区别呢 框架自带的session是通过请求上下文~放入到Local中的~那如果我们想把session放入别的地方怎 ...
- LOJ6432 [PKUSC2018] 真实排名 【组合数】
题目分析: 做三个指针然后预处理阶乘就行. 题目代码: #include<bits/stdc++.h> using namespace std; ; ; int n,k; struct n ...
- Destroying the bus stations HDU - 2485(最小割点)
题意: 就是求最小割点 解析: 正向一遍spfa 反向一遍spfa 然后遍历每一条边,对于当前边 如果dis1[u] + dis2[v] + 1 <= k 那么就把这条边加入到网络流图中, 每 ...
- Qt Creator 搭配Git 版本控制
再次介绍一下Git的使用,这次是在Coding.net上部署项目的.这个是写给大作业合作的小伙伴们(我和我的A奶朋友们和某A的男朋友)看的. 安装Git 首先安装Git(msysGit) 下载地址 h ...
- THUSC2017题解
THUSC2017题解 题目都是在LOJ上交的. chocolate LOJ#2977巧克力 这题看着就让人想起了百度之星复赛的\(T5\),就是这题. 因为种类的个数很多,所以把每个种类随意\(ra ...
- [WC2018]州区划分(FWT)
题目描述 题解 这道题的思路感觉很妙. 题目中有一个很奇怪的不合法条件,貌似和后面做题没有什么关系,所以我们先得搞掉它. 也就是判断一个点集是否合法,也就是判断这个点集是否存在欧拉回路. 如果存在欧拉 ...
- LCOW —— 单一Docker引擎下可同时运行Linux和Windows容器啦!
https://blog.csdn.net/m2l0zgssvc7r69efdtj/article/details/79251059 就在上周,Docker官方的master分支上新增了LCOW(Li ...
- java ee wildfly 批处理 job 工作
配置批处理job,同时启动两个并行任务processData,syncTableTask,执行往后执行第三个任务job:playDurationTask. xml配置如下: <job id=&q ...