这里,简单记录一下自己在最近项目中遇到的paho的心得,这里也涵盖EMQX的问题。

1. cleanSession

这个标识,是确保client和server之间是否持久化状态的一个标志,不管是client还是server重启还是连接断掉。下面是来自paho客户端源码的注释。

Sets whether the client and server should remember state across restarts and reconnects.
  • If set to false both the client and server will maintain state across restarts of the client, the server and the connection. As state is maintained:

    • Message delivery will be reliable meeting the specified QOS even if the client, server or connection are restarted.
    • The server will treat a subscription as durable.
  • If set to true the client and server will not maintain state across restarts of the client, the server or the connection. This means
    • Message delivery to the specified QOS cannot be maintained if the client, server or connection are restarted
    • The server will treat a subscription as non-durable

1)。 这个标志位,设置为true,那么,当连接断掉,例如,调用EMQX的接口踢掉连接,此时,即便重连上了(无论是通过autoconnect设置为true,还是在connectonLost这个回调函数里面配置上重连的逻辑),MQTT客户端程序都是无法进行重新订阅数据的。这个行为,说明session里面保存了会话所采用的topic信息。

2)。这个标志位,设置为true,autoconnect设置为false,在connectLost这个回调函数里面,自行实现重新连接的逻辑,并且再次针对相同的topic和qos进行订阅的话,当连接被踢掉,这个时候,会重新连接上,并且也会订阅上数据,只是会出现很奇怪的现象,CPU占用率比连接断开前提高很多。 我的应用(订阅到数据后,对数据进行相应的逻辑处理,正常情况下,一条数据大概1~5ms处理完)压测环境下,连接未断前,1.3W的并发,CPU空闲率在40%左右,重连之后,CPU的空闲率只有10%左右,这个地方是个大坑,目前我还没有搞清楚到底是什么原因导致,若有人遇到类似问题同仁,请给我留言,告知可能的原因。(我的paho是1.2.0版本,EMQX:V3.1.1)

3)。这个标志位,设置为false,autoconnect设置为false,在connectLost这个回调函数里面,自行实现重连的逻辑,但是不对topic进行重新订阅,即便连接断掉,重新连接上的话,依然会进行连接断开之前的业务逻辑,订阅到所需的数据,CPU的负荷也不会变大,基本和断开之前的状态持平。

下面配上connectLost这个回调函数(MqttCallback接口的一个方法)相关代码:

public void connectionLost(Throwable cause) {
// 连接丢失后,一般在这里面进行重连
System.out.println(">>>>>>>>>>>>>>>" + cause.getMessage());
System.out.println("连接断开,可以做重连");
for (int i = ; i < ; i++) {
if(reconnect()) {
break;
}else{
try {
Thread.sleep(i * );
} catch (InterruptedException e) {
e.printStackTrace();
}
}
}
} private boolean reconnect() {
try {
mqttClient.connect(mqttConnectOptions);
Thread.sleep();
if( mqttClient.isConnected() ) {
//mqttClient.subscribe(this.topic, 0);
return true;
}
} catch (MqttException e) {
e.printStackTrace();
} catch (InterruptedException e) {
e.printStackTrace();
}
return false;
}

2.  EMQX的承压能力

网上标榜EMQX单节点处理能力多么牛逼,100W连接毫无压力,这个数值,其实呢,我觉得要仔细看测试场景,单单看连接数,其实没有什么意义,要看生产者消费者都存在的情况下,还有数据流通这种场景,连接能力或者数据处理能力如何。 我不是说100W连接能力是虚构的,我是想说纯粹的连接其实没有多大的价值,因为EMQX是消息总线,只有连接,不存在数据流动,有多大意义呢?

还是接着我上面的应用压测,我们团队开发的一个规则引擎,1.6W的消息并发(4000设备,每个设备每秒4条消息,当然是程序模拟出来的),规则引擎4C16G的服务器2台,每台跑3个实例,共享订阅两个EMQX节点(EMQX是集群),EMQX服务器配置4C16G。结果跑不了多久时间(1个小时不到,有时半个小时),就会出现EMQX平凡踢掉消费者连接的情况。

-- ::42.710 [error] 0ba45c9872464c609c150f156e3f2a7e@10.95.198.25: [Connection] Shutdown exceptionally due to message_queue_too_long
-- ::55.746 [error] 4014030aed1642bba6ecec85debed172@10.95.198.26: [Connection] Shutdown exceptionally due to message_queue_too_long
-- ::08.131 [error] dde7f075ab2d45fdabfd192b5c6a4a30@10.95.198.25: [Connection] Shutdown exceptionally due to message_queue_too_long
-- ::14.374 [error] 72a25aca01164c8c8b4cf48451c4e316@10.95.198.25: [Connection] Shutdown exceptionally due to message_queue_too_long
-- ::41.686 [error] cd56963bfb4e4c0c8275abe9a24078de@10.95.198.26: [Connection] Shutdown exceptionally due to message_queue_too_long
-- ::52.638 [error] 4014030aed1642bba6ecec85debed172@10.95.198.26: [Connection] Shutdown exceptionally due to message_queue_too_long
-- ::06.015 [error] dde7f075ab2d45fdabfd192b5c6a4a30@10.95.198.25: [Connection] Shutdown exceptionally due to message_queue_too_long
-- ::13.541 [error] 0ba45c9872464c609c150f156e3f2a7e@10.95.198.25: [Connection] Shutdown exceptionally due to message_queue_too_long

针对这个问题,我咨询过青云的EMQ团队的工程师,也在Github上咨询过EMQX的维护者,都反馈说是消费者处理速度太慢,emq的消息队列消息堆积导致。现象如此,怎么解决呢,似乎只能添加消费者服务,或者降低消息压力,EMQX能否提升性能呢?我觉得EMQX现在共享订阅的能力不行,就这4000个连接投递消息,1.6W的并发,4000个topic,采用共享订阅的方式,性能感觉不是很好,是我们程序设计的有问题,还是EMQX共享订阅性能真的有待提升?为什么这么说能,我们测试过非共享订阅,就是明确订阅某个指定topic。非共享订阅情况下,相同的服务器上,比共享订阅性能好很多很多(差不多一半)。。。(欢迎探讨)

从EMQX的配置中,针对上面这种消息队列太长的问题,emqx.conf的配置文件中有相关信息,参考下面这个错误找到了相关的配置参数,EMQX的官方参数解释或者支持真心跟不上,没有国外开源组织社区营造的好,这个需要努力。

-- ::30.362 [error] f2ac199b0314449d822e150c8d51de93 crasher:
initial call: emqx_session:init/
pid: <0.20141.>
registered_name: []
exception exit: killed
in function emqx_session:handle_info/ (src/emqx_session.erl, line )
in call from gen_server:try_dispatch/ (gen_server.erl, line )
in call from gen_server:handle_msg/ (gen_server.erl, line )
ancestors: [emqx_session_sup,emqx_sm_sup,emqx_sup,<0.1386.>]
message_queue_len:
messages: []
links: [<0.1577.>]
dictionary: [{force_shutdown_policy,
#{max_heap_size => 838860800,message_queue_len => 8000}},
{deliver_stats,},
{'$logger_metadata$',
#{client_id => <<"f2ac199b0314449d822e150c8d51de93">>}}]
trap_exit: true
status: running
heap_size:
stack_size:
reductions:
neighbours:

再看看emqx.conf的配置文件中,和这个queue相关的配置:

## Max message queue length and total heap size to force shutdown
## connection/session process.
## Message queue here is the Erlang process mailbox, but not the number
## of queued MQTT messages of QoS and .
##
## Numbers delimited by `|'. Zero or negative is to disable.
##
## Default:
## - |800MB on ARCH_64 system
## - |100MB on ARCH_32 sytem
## zone.external.force_shutdown_policy = |800MB

有人会说,你可以将这里的消息数量调大点啊,没错,这个调一下是可以改善,但是不能根治问题,自己想想吧,大点最多也就是对消息速率波动的韧性加大了,但是不能解决持续生成高于所谓的消费慢这种情况下的问题。 EMQ方说辞其实,在我们的这个场景下,我是不那么认同的,为什么这么说呢, 我的规则引擎消费日志里面显示,每条消息处理的时间并没有变长,CPU的忙碌程度并没有恶化, 添加共享订阅实例变多,EMQX性能下降了,我觉得EMQX在共享订阅变多的情况下,对消费者端投递消息的速率或者效率下降了,但是呢,EMQX这个broker从消息生产者这边接收消息的能力没有改变,导致EMQX的消息队列消息积压,最终出现踢连接的policy得以执行。。。

还有一个问题,不知道细心的读者有没有发现,消费者这边消息消费的好好的,消息积压了,EMQX为何要把消费者的连接给踢掉呢,为何不是将生产者的连接踢掉呢?这个逻辑我觉得有点不是很好理解,本来消息就积压了,是不是要加快消费才能缓解或者解除消息积压的问题?读者你们是如何理解的,也可以留言探讨!

MQTT研究之EMQ:【eclipse的paho之java客户端使用注意事项】的更多相关文章

  1. MQTT研究之EMQ:【EMQ之HTTP认证/访问控制】

    今天进行验证的逻辑是EMQ的http的Auth以及ACL的逻辑. 首先,参照HTTP插件认证配置的说明文档进行基本的配置, 我的配置内容如下: ##-------------------------- ...

  2. MQTT研究之EMQ:【SSL证书链验证】

    1. 创建证书链(shell脚本) 客户端证书链关系: rootCA-->chainca1-->chainca2-->chainca3 ca caCert1 caCert2 caCe ...

  3. MQTT研究之EMQ:【CoAP协议应用开发】

    本博文的重点是尝试CoAP协议的应用开发,其中包含CoAP协议中一个重要的开源工具libcoap的安装和遇到的问题调研.当然,为了很好的将EMQ的CoAP协议网关用起来,也调研了下EMQ体系下,CoA ...

  4. MQTT研究之EMQ:【JAVA代码构建X509证书【续集】】

    openssl创建私钥,获取公钥,创建证书都是比较简单的,就几个指令,很快就可以搞定,之所以说简单,是因为证书里面的基本参数配置不需要我们组装,只需要将命令行里面需要的几个参数配置进去即可.但是呢,用 ...

  5. MQTT研究之EMQ:【JAVA代码构建X509证书】

    这篇帖子,不会过多解释X509证书的基础理论知识,也不会介绍太多SSL/TLS的基本信息,重点介绍如何用java实现SSL协议需要的X509规范的证书. 之前的博文,介绍过用openssl创建证书,并 ...

  6. MQTT研究之EMQ:【EMQX使用中的一些问题记录(4)】

    最近比较忙,有些关于EMQ的使用问题,没有时间记录了,趁这个周末抽点时间,将最近遇到的,觉得比较有价值的一个问题,分享给大家吧. 这里是针对前面的一篇博客,做的一个深入研究,关于订阅系统总线判断设备上 ...

  7. MQTT研究之EMQ:【基础研究】

    EMQ版本V2, emqttd-centos7-v2.3.11-1.el7.centos.x86_64.rpm 下载地址:http://emqtt.com/downloads/2318/centos7 ...

  8. MQTT研究之EMQ:【EMQX使用中的一些问题记录(2)】

    我的测试环境: Linux: CentOS7 EMQX:V3.2.3 题外话: 这里主要介绍Websocket的支持问题. 对ws的支持比较正常,但是对wss的支持,调了较长的时间,没有成功. Jav ...

  9. MQTT研究之EMQ:【EMQX使用中的一些问题记录(1)】

    issue 1. EMQX的共享订阅 EMQX是一个非常强大的物联网通信消息总线,基于EMQX开展应用开发,要注意很多配置细节问题,这里要说到的就是共享订阅以及和cleanSession之间的关系问题 ...

随机推荐

  1. Linux之ubuntu下载

    (转载) ubuntu 16.04国内下载地址: 中科大源 http://mirrors.ustc.edu.cn/ubuntu-releases/16.04/ 阿里云开源镜像站 http://mirr ...

  2. JVM的底层实现原理

    JVM是Java程序运行的环境,但是他同时也是一个操作系统的一个应用程序的一个进程,因此JVM也有他自己的运行生命周期,也有自己的代码和数据空间. JDK JDK在Java的整个体系中充当一个生产加工 ...

  3. (二)Kubernetes kubeadm部署k8s集群

    kubeadm介绍 kubeadm是Kubernetes项目自带的及集群构建工具,负责执行构建一个最小化的可用集群以及将其启动等的必要基本步骤,kubeadm是Kubernetes集群全生命周期的管理 ...

  4. BSGS学习笔记

    用于求\(A^{x} \equiv B \pmod{C}\) 高次方程的最小正整数解x,其中C为素数 引理1:$a^{i\mod\varphi(p) } \equiv a^{i} $ (mod p) ...

  5. MapReduce的初识

    MapReduce是什么 HDFS:分布式存储系统 MapReduce:分布式计算系统 YARN:hadoop 的资源调度系统 Common:以上三大组件的底层支撑组件,主要提供基础工具包和 RPC ...

  6. iOS的事件派发

    dispatchPreprocessedEventFromEventQueue 先定位:hittest * thread #1, queue = 'com.apple.main-thread', st ...

  7. 手写spark wordCount

    val conf: SparkConf = new SparkConf().setMaster(Local[*]).setAppName("wordCount") val sc=n ...

  8. Reincarnation HDU - 4622 (后缀自动机)

    Reincarnation \[ Time Limit: 3000 ms\quad Memory Limit: 65536 kB \] 题意 给出一个字符串 \(S\),然后给出 \(m\) 次查询, ...

  9. nuxtjs在vue组件中使用window对象编译报错的解决方法

    我们知道nuxtjs是做服务端渲染的,他有很多声明周期是运行在服务端的,以及正常的vue声明周期mounted之前均是在服务端运行的,那么服务端是没有比如window对象的location.navag ...

  10. nginx.conf 配置解析之文件结构

    nginx.conf配置文件结构如下: ...... #主要定义nginx的全局配置 events{ #events(事件)块:主要配置网络连接相关 } http{ #http块:代理缓存和日志定义绝 ...