EMQX企业版单节点持久化MongoDB

EMQX 客服发表于:2022年03月08日 16:01:37更新于:2022年03月08日 16:12:31

一、测试目的

测试EMQ X企业版4.3.5单节点每秒4万QoS 1、payload 10B的消息持久化至MongoDB所需EMQ X资源及响应时间等性能指标。

二、测试架构

image.png

三、测试环境、机器配置及测试工具

  • 测试环境:腾讯云南京区VPC

  • 测试工具:XMeter企业版v3.0

  • EMQX、MongoDB、测试机配置:

    服务数量版本操作系统CPU内存云主机型号
    EMQX14.3.5Centos7.864核128GC5.16xlarge128
    MongoDB15.0.3Centos7.8
    8核16GC3.2XLARGE16
    XMeter管理机23.0Centos7.3
    8核16GC5.2XLARGE16
    XMeter压力机4/Centos7.3
    8核16GC5.2XLARGE16

四、测试场景

如测试架构图中所示,XMeter压力机模拟4万MQTT客户端向EMQ X发起连接,新增连接速率为每秒2000,客户端心跳间隔(keep alive)300秒。所有连接成功后每个客户端每秒发送一条QoS为1、payload为10B的消息,所有消息通过规则引擎桥持久化发至MongoDB节点。

测试执行1个小时。

规则引擎配置如下:

  • MongoDB资源设置

    image.png

  • MongoDB规则设置

    image.png

五、测试结果

具体测试结果及EMQ X资源使用截图如下:

  • EMQX Dashborad统计:

    image.png

  • EMQX规则引擎统计:

    image.png

  • MongoDB数据库收到数据:

    image.png

  • EMQX Dashboard消息数统计:

    image.png

    测试结束从数据库相应表里查询到的总数和EMQ X Dashboard上统计的消息数、规则上的命中数以及成功数都是一致的。

  • EMQX节点资源使用:

    image.png

  • XMeter测试报告截图:

    image.png

    image.png

    image.png

六、测试总结

如以上结果所示,EMQ X 64C128G配置下可以支持4万连接、每秒4万QoS 1、payload 10B的消息持久化到MongoDB。消息吞吐期间,EMQ X所在机器CPU user平均值59%,CPU idle平均30%。

附录1:操作系统调优

可参考:https://docs.emqx.io/enterprise/latest/cn/tutorial/tune.html

亦可直接sh附录3中的文件sys_tune.sh。

附录2:测试工具试用、下载地址

XMeter简介 (https://www.xmeter.net/)XMeter是基于开源测试工具JMeter扩展的性能测试平台。针对物联网具有的接入规模大、弹性扩展要求、多种接入协议、混合场景等特点,XMeter对JMeter进行了改造,实现了百万级别并发测试支持,并对测试数据进行实时处理并图形化展示。

附录3:系统调优脚本

#!/bin/sh 

## Linux Kernel Tuning
sysctl -w fs.file-max=2097152
sysctl -w fs.nr_open=2097152
echo 2097152 > /proc/sys/fs/nr_open
echo 2097152 > /proc/sys/fs/file-max 

## The limit on opened file handles for current session
ulimit -n 1048576 

## Add the ‘fs.file-max’ to /etc/sysctl.conf, make the changes permanent 
## /etc/security/limits.conf
##
##
## *      soft   nofile      1048576
## *      hard   nofile      1048576  

cat <<- 'EOF' >> /etc/security/limits.conf
*                soft    nofile         1048576
*                hard    nofile         1048576EOF 

## Network Tuning 
## Increase number of incoming connections backlog
sysctl -w net.core.somaxconn=32768
sysctl -w net.ipv4.tcp_max_syn_backlog=16384
sysctl -w net.core.netdev_max_backlog=16384 

## Local Port Range:
sysctl -w net.ipv4.ip_local_port_range=1000  65535  

## Read/Write Buffer for TCP connections:
sysctl -w net.core.rmem_default=262144
sysctl -w net.core.wmem_default=262144
sysctl -w net.core.rmem_max=16777216
sysctl -w net.core.wmem_max=16777216
sysctl -w net.core.optmem_max=16777216 
sysctl -w net.ipv4.tcp_rmem=1024 4096 16777216
sysctl -w net.ipv4.tcp_wmem=1024 4096 16777216 

## Timeout for FIN-WAIT-2 sockets:
sysctl -w net.ipv4.tcp_fin_timeout=15 

cat <<- 'EOF' >> /etc/sysctl.conf
net.core.somaxconn=32768
net.ipv4.tcp_max_syn_backlog=16384
net.core.netdev_max_backlog=16384
net.ipv4.ip_local_port_range=1000  65535
net.core.rmem_default=262144
net.core.wmem_default=262144
net.core.rmem_max=16777216
net.core.wmem_max=16777216
net.core.optmem_max=16777216
net.ipv4.tcp_rmem=1024 4096 16777216
net.ipv4.tcp_wmem=1024 4096 16777216
net.ipv4.tcp_max_tw_buckets=1048576
net.ipv4.tcp_fin_timeout=15
EOF

附录4:MongoDB配置

systemLog:  
    destination: file  
    logAppend: true  
    path: /var/log/mongodb/mongod.log
storage:  
    dbPath: /var/lib/mongo  
    journal:    
        enabled: true
processManagement:  
    fork: true  # fork and run in background  
    pidFilePath: /var/run/mongodb/mongod.pid  # location of pidfile  
    timeZoneInfo: /usr/share/zoneinfo
net:  
    port: 27017  
    bindIp: 0.0.0.0  # Enter 0.0.0.0,:: to bind to all IPv4 and IPv6 addresses or, alternatively, use the net.bindIpAll setting.
security:  
    authorization: enabled


    您需要登录后才可以回复