一、测试目的
测试EMQ X企业版4.3.5单节点每秒4万QoS 1、payload 10B的消息持久化至MongoDB所需EMQ X资源及响应时间等性能指标。
二、测试架构
三、测试环境、机器配置及测试工具
测试环境:腾讯云南京区VPC
测试工具:XMeter企业版v3.0
EMQX、MongoDB、测试机配置:
服务 数量 版本 操作系统 CPU 内存 云主机型号 EMQX 1 4.3.5 Centos7.8 64核 128G C5.16xlarge128 MongoDB 1 5.0.3 Centos7.8 8核 16G C3.2XLARGE16 XMeter管理机 2 3.0 Centos7.3 8核 16G C5.2XLARGE16 XMeter压力机 4 / Centos7.3 8核 16G C5.2XLARGE16
四、测试场景
如测试架构图中所示,XMeter压力机模拟4万MQTT客户端向EMQ X发起连接,新增连接速率为每秒2000,客户端心跳间隔(keep alive)300秒。所有连接成功后每个客户端每秒发送一条QoS为1、payload为10B的消息,所有消息通过规则引擎桥持久化发至MongoDB节点。
测试执行1个小时。
规则引擎配置如下:
MongoDB资源设置
MongoDB规则设置
五、测试结果
具体测试结果及EMQ X资源使用截图如下:
EMQX Dashborad统计:
EMQX规则引擎统计:
MongoDB数据库收到数据:
EMQX Dashboard消息数统计:
测试结束从数据库相应表里查询到的总数和EMQ X Dashboard上统计的消息数、规则上的命中数以及成功数都是一致的。
EMQX节点资源使用:
XMeter测试报告截图:
六、测试总结
如以上结果所示,EMQ X 64C128G配置下可以支持4万连接、每秒4万QoS 1、payload 10B的消息持久化到MongoDB。消息吞吐期间,EMQ X所在机器CPU user平均值59%,CPU idle平均30%。
附录1:操作系统调优
可参考:https://docs.emqx.io/enterprise/latest/cn/tutorial/tune.html
亦可直接sh附录3中的文件sys_tune.sh。
附录2:测试工具试用、下载地址
XMeter简介 (https://www.xmeter.net/):XMeter是基于开源测试工具JMeter扩展的性能测试平台。针对物联网具有的接入规模大、弹性扩展要求、多种接入协议、混合场景等特点,XMeter对JMeter进行了改造,实现了百万级别并发测试支持,并对测试数据进行实时处理并图形化展示。
XMeter官网和试用地址:https://www.xmeter.net/
XMeter MQTT插件下载:https://github.com/xmeter-net/mqtt-jmeter
JMeter下载地址:https://jmeter.apache.org
附录3:系统调优脚本
#!/bin/sh ## Linux Kernel Tuning sysctl -w fs.file-max=2097152 sysctl -w fs.nr_open=2097152 echo 2097152 > /proc/sys/fs/nr_open echo 2097152 > /proc/sys/fs/file-max ## The limit on opened file handles for current session ulimit -n 1048576 ## Add the ‘fs.file-max’ to /etc/sysctl.conf, make the changes permanent ## /etc/security/limits.conf ## ## ## * soft nofile 1048576 ## * hard nofile 1048576 cat <<- 'EOF' >> /etc/security/limits.conf * soft nofile 1048576 * hard nofile 1048576EOF ## Network Tuning ## Increase number of incoming connections backlog sysctl -w net.core.somaxconn=32768 sysctl -w net.ipv4.tcp_max_syn_backlog=16384 sysctl -w net.core.netdev_max_backlog=16384 ## Local Port Range: sysctl -w net.ipv4.ip_local_port_range=1000 65535 ## Read/Write Buffer for TCP connections: sysctl -w net.core.rmem_default=262144 sysctl -w net.core.wmem_default=262144 sysctl -w net.core.rmem_max=16777216 sysctl -w net.core.wmem_max=16777216 sysctl -w net.core.optmem_max=16777216 sysctl -w net.ipv4.tcp_rmem=1024 4096 16777216 sysctl -w net.ipv4.tcp_wmem=1024 4096 16777216 ## Timeout for FIN-WAIT-2 sockets: sysctl -w net.ipv4.tcp_fin_timeout=15 cat <<- 'EOF' >> /etc/sysctl.conf net.core.somaxconn=32768 net.ipv4.tcp_max_syn_backlog=16384 net.core.netdev_max_backlog=16384 net.ipv4.ip_local_port_range=1000 65535 net.core.rmem_default=262144 net.core.wmem_default=262144 net.core.rmem_max=16777216 net.core.wmem_max=16777216 net.core.optmem_max=16777216 net.ipv4.tcp_rmem=1024 4096 16777216 net.ipv4.tcp_wmem=1024 4096 16777216 net.ipv4.tcp_max_tw_buckets=1048576 net.ipv4.tcp_fin_timeout=15 EOF
附录4:MongoDB配置
systemLog: destination: file logAppend: true path: /var/log/mongodb/mongod.log storage: dbPath: /var/lib/mongo journal: enabled: true processManagement: fork: true # fork and run in background pidFilePath: /var/run/mongodb/mongod.pid # location of pidfile timeZoneInfo: /usr/share/zoneinfo net: port: 27017 bindIp: 0.0.0.0 # Enter 0.0.0.0,:: to bind to all IPv4 and IPv6 addresses or, alternatively, use the net.bindIpAll setting. security: authorization: enabled