Kafka Web Console:是一款开源的系统,源码的地址在https://github.com/claudemamo/kafka-web-console中。Kafka Web Console也是用Scala语言编写的Java web程序用于监控Apache Kafka。这个系统的功能和KafkaOffsetMonitor很类似,但是我们从源码角度来看,这款系统实现比KafkaOffsetMonitor要复杂很多,而且编译配置比KafkaOffsetMonitor较麻烦。
  要想运行这套系统我们需要的先行条件为:

  1. Play Framework 2.2.x
  2. Apache Kafka 0.8.x
  3. Zookeeper 3.3.3 or 3.3.4

  同样,我们从https://github.com/claudemamo/kafka-web-console上面将源码下载下来,然后用sbt进行编译,在编译前我们需要做如下的修改:
  1、Kafka Web Console默认用的数据库是H2,它支持以下几种数据库:


  1. H2 (default)
  2. PostgreSql
  3. Oracle
  4. DB2
  5. MySQL
  6. ApacheDerby
  7. Microsoft SQL Server
为了方便,我们可以使用Mysql数据库,只要做如下修改即可,找到 conf/application.conf文件,并修改如下

  1. #############################################################################
  2. User:过往记忆
  3. Date:14-08-08
  4. Time:11:37
  5. bolg: https://www.iteblog.com
  6. 本文地址:https://www.iteblog.com/archives/1084
  7. 过往记忆博客,专注于hadoop、hive、spark、shark、flume的技术博客,大量的干货
  8. 过往记忆博客微信公共帐号:iteblog_hadoop
  9. #############################################################################
  10. 将这个
  11. db.default.driver=org.h2.Driver
  12. db.default.url="jdbc:h2:file:play"
  13. # db.default.user=sa
  14. # db.default.password=""
  15. 修改成
  16. db.default.driver=com.mysql.jdbc.Driver
  17. db.default.url="jdbc:mysql://localhost:3306/test"
  18. db.default.user=root
  19. db.default.pass=123456
我们还需要修改build.sbt,加入对Mysql的依赖:

  1. "mysql"%"mysql-connector-java"%"5.1.31"
 

 修改后的bulid.sbt :


  1. name := "kafka-web-console"
  2. version := "2.1.0-SNAPSHOT"
  3. libraryDependencies ++= Seq(
  4. jdbc,
  5. cache,
  6. "org.squeryl" % "squeryl_2.10" % "0.9.5-6",
  7. "com.twitter" % "util-zk_2.10" % "6.11.0",
  8. "com.twitter" % "finagle-core_2.10" % "6.15.0",
  9. "org.quartz-scheduler" % "quartz" % "2.2.1",
  10. "org.apache.kafka" % "kafka_2.10" % "0.8.1.1",
  11. "mysql" % "mysql-connector-java" % "5.1.31"
  12. exclude("javax.jms", "jms")
  13. exclude("com.sun.jdmk", "jmxtools")
  14. exclude("com.sun.jmx", "jmxri")
  15. )
  16. play.Project.playScalaSettings

 2、执行conf/evolutions/default/bak目录下面的1.sql、2.sql和3.sql三个文件。需要注意的是,这三个sql文件不能直接运行,有语法错误,需要做一些修改。

修改后的1.sql :


  1. CREATE TABLE zookeepers (
  2. name VARCHAR(100),
  3. host VARCHAR(100),
  4. port INT(100),
  5. statusId INT(100),
  6. groupId INT(100),
  7. PRIMARY KEY (name)
  8. );
  9. CREATE TABLE groups (
  10. id INT(100),
  11. name VARCHAR(100),
  12. PRIMARY KEY (id)
  13. );
  14. CREATE TABLE status (
  15. id INT(100),
  16. name VARCHAR(100),
  17. PRIMARY KEY (id)
  18. );
  19. INSERT INTO groups (id, name) VALUES (0, 'ALL');
  20. INSERT INTO groups (id, name) VALUES (1, 'DEVELOPMENT');
  21. INSERT INTO groups (id, name) VALUES (2, 'PRODUCTION');
  22. INSERT INTO groups (id, name) VALUES (3, 'STAGING');
  23. INSERT INTO groups (id, name) VALUES (4, 'TEST');
  24. INSERT INTO status (id, name) VALUES (0, 'CONNECTING');
  25. INSERT INTO status (id, name) VALUES (1, 'CONNECTED');
  26. INSERT INTO status (id, name) VALUES (2, 'DISCONNECTED');
  27. INSERT INTO status (id, name) VALUES (3, 'DELETED');

修改后的2.sql  :


  1. ALTER TABLE zookeepers ADD COLUMN chroot VARCHAR(100);

修改后的3.sql :


  1. ALTER TABLE zookeepers DROP PRIMARY KEY;
  2. ALTER TABLE zookeepers ADD COLUMN id int(100) NOT NULL AUTO_INCREMENT PRIMARY KEY;
  3. ALTER TABLE zookeepers MODIFY COLUMN name VARCHAR(100) NOT NULL;
  4. ALTER TABLE zookeepers MODIFY COLUMN host VARCHAR(100) NOT NULL;
  5. ALTER TABLE zookeepers MODIFY COLUMN port INT(100)  NOT NULL;
  6. ALTER TABLE zookeepers MODIFY COLUMN  statusId INT(100)  NOT NULL;
  7. ALTER TABLE zookeepers MODIFY COLUMN groupId INT(100)  NOT NULL;
  8. ALTER TABLE zookeepers ADD UNIQUE (name);
  9. CREATE TABLE offsetHistory (
  10. id int(100) AUTO_INCREMENT PRIMARY KEY,
  11. zookeeperId int(100),
  12. topic VARCHAR(255),
  13. FOREIGN KEY (zookeeperId) REFERENCES zookeepers(id),
  14. UNIQUE (zookeeperId, topic)
  15. );
  16. CREATE TABLE offsetPoints (
  17. id int(100) AUTO_INCREMENT PRIMARY KEY,
  18. consumerGroup VARCHAR(255),
  19. timestamp TIMESTAMP,
  20. offsetHistoryId int(100),
  21. partition int(100),
  22. offset int(100),
  23. logSize int(100),
  24. FOREIGN KEY (offsetHistoryId) REFERENCES offsetHistory(id)
  25. );
  26. CREATE TABLE settings (
  27. key_ VARCHAR(255) PRIMARY KEY,
  28. value VARCHAR(255)
  29. );
  30. INSERT INTO settings (key_, value) VALUES ('PURGE_SCHEDULE', '0 0 0 ? * SUN *');
  31. INSERT INTO settings (key_, value) VALUES ('OFFSET_FETCH_INTERVAL', '30');

project/build.properties的

sbt.version=0.13.0 要修改实际的sbt版本,比如我用的是sbt.version=0.13.15
上面的注意事项弄完之后,我们就可以编译下载过来的源码:

# sbt package

  编译的过程比较慢,有些依赖包下载速度非常地慢,请耐心等待。

  在编译的过程中,可能会出现有些依赖包无法下载,如下错误:


  1. [warn]modulenot found: com.typesafe.play#sbt-plugin;2.2.1
  2. [warn]==== typesafe-ivy-releases: tried
  3. [warn] http://repo.typesafe.com/typesafe/ivy-releases/
  4. com.typesafe.play/sbt-plugin/scala_2.9.2/sbt_0.12/2.2.1/ivys/ivy.xml
  5. [warn]==== sbt-plugin-releases: tried
  6. [warn] http://scalasbt.artifactoryonline.com/scalasbt/sbt-plugin-releases/
  7. com.typesafe.play/sbt-plugin/scala_2.9.2/sbt_0.12/2.2.1/ivys/ivy.xml
  8. [warn]====local: tried
  9. [warn]/home/iteblog/.ivy2/local/com.typesafe.play/
  10. sbt-plugin/scala_2.9.2/sbt_0.12/2.2.1/ivys/ivy.xml
  11. [warn]====Typesafe repository: tried
  12. [warn] http://repo.typesafe.com/typesafe/releases/com/
  13. typesafe/play/sbt-plugin_2.9.2_0.12/2.2.1/sbt-plugin-2.2.1.pom
  14. [warn]====public: tried
  15. [warn] http://repo1.maven.org/maven2/com/typesafe/play/
  16. sbt-plugin_2.9.2_0.12/2.2.1/sbt-plugin-2.2.1.pom
  17. [warn]::::::::::::::::::::::::::::::::::::::::::::::
  18. ====local: tried
  19. /home/iteblog/.ivy2/local/org.scala-sbt/collections/0.13.0/jars/collections.jar
  20. ::::::::::::::::::::::::::::::::::::::::::::::
  21. :: FAILED DOWNLOADS ::
  22. ::^ see resolution messages for details ^::
  23. ::::::::::::::::::::::::::::::::::::::::::::::
  24. :: org.scala-sbt#collections;0.13.0!collections.jar
  25. ::::::::::::::::::::::::::::::::::::::::::::::
  我们可以手动地下载相关依赖,并放到类似/home/iteblog/.ivy2/local/org.scala-sbt/collections/0.13.0/jars/目录下面。然后再编译就可以了。

启动的时候需要把.sql文件删除掉,否则会报错。

http://localhost:9000

最后,我们可以通过下面命令启动Kafka Web Console监控系统:

# sbt run

并可以在http://localhost:9000查看。下面是一张效果图

  1. Before you can monitor a broker, you need to register the Zookeeper server associated with it:

Kafka Web Console

Kafka Web Console is a Java web application for monitoring Apache
Kafka
. With a modern web
browser, you can view from the console:

  • Registered brokers


  • Topics, partitions, log sizes, and partition leaders


  • Consumer groups, individual consumers, consumer owners, partition offsets and lag


  • Graphs showing consumer offset and lag history as well as consumer/producer message throughput history.


  • Latest published topic messages (requires web browser support for WebSocket)


Furthermore, the console provides a JSON API described in RAML.
The API can be tested using the embedded API Console accessible through the URL http://[hostname]:[port]/api/console.

Requirements

  • Play Framework 2.2.x
  • Apache Kafka 0.8.x
  • Zookeeper 3.3.3 or 3.3.4

Deployment

Consult Play!'s documentation for deployment
options and instructions
.

Getting
Started

  1. Kafka Web Console requires a relational database. By default, the server connects to an embedded H2 database and no database installation or configuration is needed. Consult Play!'s documentation to specify
    a database for the console
    . The following databases are supported:

    • H2 (default)
    • PostgreSql
    • Oracle
    • DB2
    • MySQL
    • Apache Derby
    • Microsoft SQL Server

    Changing the database might necessitate making minor modifications to the DDL to
    accommodate the new database.

  2. Before you can monitor a broker, you need to register the Zookeeper server associated with it:

Filling in the form and clicking on Connect will
register the Zookeeper server. Once the console has successfully established a connection with the registered Zookeeper server, it can retrieve all necessary information about brokers, topics, and consumers:

Apache Kafka监控之Kafka Web Console的更多相关文章

  1. 【转载】Apache Kafka监控之Kafka Web Console

    http://www.iteblog.com/archives/1084 Kafka Web Console是一款开源的系统,源码的地址在https://github.com/claudemamo/k ...

  2. Kafka监控系统Kafka Eagle剖析

    1.概述 最近有同学留言反馈了使用Kafka监控工具Kafka Eagle的一些问题,这里笔者特意整理了这些问题.并且希望通过这篇博客来解答这些同学的在使用Kafka Eagle的时候遇到的一些困惑, ...

  3. Kafka监控系统Kafka Eagle:支持kerberos认证

    在线文档:https://ke.smartloli.org/ 作者博客:https://www.cnblogs.com/smartloli/p/9371904.html 源码地址:https://gi ...

  4. 【转】apache kafka监控系列-KafkaOffsetMonitor

    apache kafka监控系列-KafkaOffsetMonitor 时间 2014-05-27 18:15:01  CSDN博客 原文  http://blog.csdn.net/lizhitao ...

  5. apache kafka监控系列-KafkaOffsetMonitor(转)

    原文链接:apache kafka监控系列-KafkaOffsetMonitor 概览 最 近kafka server消息服务上线了,基于jmx指标参数也写到zabbix中了,但总觉得缺少点什么东西, ...

  6. apache kafka监控系列-KafkaOffsetMonitor

    apache kafka中国社区QQ群:162272557 概览 近期kafka server消息服务上线了,基于jmx指标參数也写到zabbix中了.但总认为缺少点什么东西.可视化可操作的界面. z ...

  7. DataPipeline |《Apache Kafka实战》作者胡夕:Apache Kafka监控与调优

    胡夕 <Apache Kafka实战>作者,北航计算机硕士毕业,现任某互金公司计算平台总监,曾就职于IBM.搜狗.微博等公司.国内活跃的Kafka代码贡献者. 前言 虽然目前Apache ...

  8. DataPipeline |ApacheKafka实战作者胡夕:Apache Kafka监控与调优

    https://baijiahao.baidu.com/s?id=1610644333184173190&wfr=spider&for=pc DataPipeline |ApacheK ...

  9. kafka监控系统

    Metrics-Java版的指标度量工具之一 Metrics-Java版的指标度量工具之二 JAVA Metrics 度量工具使用介绍1 JAVA Metrics度量工具 - Metrics Core ...

随机推荐

  1. Pandas分组统计函数:groupby、pivot_table及crosstab

    利用python的pandas库进行数据分组分析十分便捷,其中应用最多的方法包括:groupby.pivot_table及crosstab,以下分别进行介绍. 0.样例数据 df = DataFram ...

  2. HDU 6143 17多校8 Killer Names(组合数学)

    题目传送:Killer Names Problem Description > Galen Marek, codenamed Starkiller, was a male Human appre ...

  3. Httpclient的学习(一)

    1.名词解释 抓包: 抓包(packet capture)就是将网络传输发送与接收的数据包进行截获.重发.编辑.转存等操作,也用来检查网络安全.抓包也经常被用来进行数据截取等. Httpclient: ...

  4. 基于NEO的私链(Private Blockchain)

    1.准备工作 1.NEO-GUI 2.NEO-CLI 3..NET Core Runtime (不能是2.x版本,官方建议是1.12,实际上我用1.14也是没有问题的) 4.四台windows操作系统 ...

  5. 精确率、召回率、准确率与ROC曲线

    精确率表示的是预测为某类样本(例如正样本)中有多少是真正的该类样本,一般用来评价分类任务模型. 比如对于一个分类模型,预测结果为A类的所有样本中包含A0个真正的A样本,和A1个不是A样本的其他类样本, ...

  6. google和baidu搜索命令

    在google里面搜索一点儿老外的资料的时候发现搜不到我想要的东西,以前貌似见过一个搜索命令的但是一时想不起来了,所以就去搜索了一下搜索命令,常用的在这里全部列举出来: google:绿色的较为常用的 ...

  7. Unity 3D学习心得,程序员开发心得分享!

    Unity开发之路 本文提供全流程,中文翻译. Chinar 坚持将简单的生活方式,带给世人!(拥有更好的阅读体验 -- 高分辨率用户请根据需求调整网页缩放比例) Chinar -- 心分享.心创新! ...

  8. 田螺便利店——联想笔记本进入不了BIOS的解决方法

    当计算机遇到问题时,很多情况下需要进入BIOS进行解决.但很多新出的联想笔记本电脑在开机时,无论怎么疯狂的按F2,Fn+F2,F12或者Del,都无法进入BIOS,十分气人.       这种现象出现 ...

  9. 20155208徐子涵 2016-2017-2 《Java程序设计》第3周学习总结

    20155208徐子涵 2016-2017-2 <Java程序设计>第3周学习总结 教材学习内容总结 第四章 认识对象 4.1 类与对象 •对象(Object):存在的具体实体,具有明确的 ...

  10. springboot+kotlin+springcloud+java+grade+maven混编?

    springboot + maven + java vs springboot + gradle + kotlin 快速搭建:https://start.spring.io/ springclould ...