前言

如果使用 EMQ 来承载百万级别的用户连接可以吗?毕竟在 MQTT 官方介绍上说 EMQ X 可以处理千万并发客户端,而 EMQ X 自己官方称 4.x 版本 MQTT 连接压力测试一台 8 核心、32G 内存的 CentOS 服务器能够承载 130 万台设备的连接。究竟性能如何呢?试了才知道。

系统调优

Linux 操作系统参数

系统全局允许分配的最大文件句柄数:

# 2 millions system-wide
sysctl -w fs.file-max=2097152
sysctl -w fs.nr_open=2097152
echo 2097152 > /proc/sys/fs/nr_open

允许当前会话 / 进程打开文件句柄数:

ulimit -n 1048576

/etc/sysctl.conf

持久化 'fs.file-max' 设置到 /etc/sysctl.conf 文件:

fs.file-max = 1048576

/etc/systemd/system.conf 设置服务最大文件句柄数:

DefaultLimitNOFILE=1048576

/etc/security/limits.conf

/etc/security/limits.conf 持久化设置允许用户 / 进程打开文件句柄数:

*      soft   nofile      1048576
*      hard   nofile      1048576

TCP 协议栈网络参数

并发连接 backlog 设置:

sysctl -w net.core.somaxconn=32768
sysctl -w net.ipv4.tcp_max_syn_backlog=16384
sysctl -w net.core.netdev_max_backlog=16384

可用知名端口范围:

sysctl -w net.ipv4.ip_local_port_range='1000 65535'

TCP Socket 读写 Buffer 设置:

sysctl -w net.core.rmem_default=262144
sysctl -w net.core.wmem_default=262144
sysctl -w net.core.rmem_max=16777216
sysctl -w net.core.wmem_max=16777216
sysctl -w net.core.optmem_max=16777216

#sysctl -w net.ipv4.tcp_mem='16777216 16777216 16777216'
sysctl -w net.ipv4.tcp_rmem='1024 4096 16777216'
sysctl -w net.ipv4.tcp_wmem='1024 4096 16777216'

TCP 连接追踪设置:

sysctl -w net.nf_conntrack_max=1000000
sysctl -w net.netfilter.nf_conntrack_max=1000000
sysctl -w net.netfilter.nf_conntrack_tcp_timeout_time_wait=30

TIME-WAIT Socket 最大数量、回收与重用设置:

sysctl -w net.ipv4.tcp_max_tw_buckets=1048576

# 注意:不建议开启該设置,NAT 模式下可能引起连接 RST
# sysctl -w net.ipv4.tcp_tw_recycle=1
# sysctl -w net.ipv4.tcp_tw_reuse=1

FIN-WAIT-2 Socket 超时设置:

sysctl -w net.ipv4.tcp_fin_timeout=15

Erlang 虚拟机参数

优化设置 Erlang 虚拟机启动参数,配置文件 emqx/etc/emqx.conf:

## Erlang Process Limit
node.process_limit = 2097152

## Sets the maximum number of simultaneously existing ports for this system
node.max_ports = 1048576

EMQ X 消息服务器参数

设置 TCP 监听器的 Acceptor 池大小,最大允许连接数。配置文件 emqx/etc/emqx.conf:

## TCP Listener
listener.tcp.external = 0.0.0.0:1883
listener.tcp.external.acceptors = 64
listener.tcp.external.max_connections = 1024000

测试客户端设置

测试客户端服务器在一个接口上,最多只能创建 65000 连接:

sysctl -w net.ipv4.ip_local_port_range="500 65535"
echo 1000000 > /proc/sys/fs/nr_open
ulimit -n 100000

重启 EMQ X 之后可以在 Dashboard 看到如下显示:
dashboard

性能压测

emqtt_bench 是基于 Erlang 编写的,一个简洁强大的 MQTT 协议性能测试工具,如需大规模场景、深度定制化的测试服务推荐使用 EMQ 合作伙伴 XMeter 测试服务。

编译安装

emqtt_bench 的运行依赖于 Erlang/OTP 21.2 以上版本运行环境,安装过程略过,详情请参考网上各个安装教程。

Erlang 环境安装完成后,下载 emqtt-bench 最新代码,并编译:

git clone https://github.com/emqx/emqtt-bench
cd emqtt-bench

make

编译完成后,当前目录下会生成 一个名为emqtt_bench 的可执行脚本。执行以下命令,确认其能正常使用:

./emqtt_bench
Usage: emqtt_bench pub | sub | conn [--help]

输出以上内容,则证明 emqtt_bench 已正确安装到主机。

使用

emqtt_bench 共三个子命令:

  1. pub:用于创建大量客户端执行发布消息的操作
  2. sub:用于创建大量客户端执行订阅主题,并接受消息的操作
  3. conn:用于创建大量的连接

发布

执行 ./emqtt_bench pub --help 会得到可用的参数输出,此处整理:

参数简写可选值默认值说明
--host-h-localhost要连接的 MQTT 服务器地址
--port-p-1883MQTT 服务端口
--version-V3/4/55使用的 MQTT 协议版本
--count-c-200客户端总数
--startnumber-n-0客户端数量起始值
--interval-i-10每间隔多少时间创建一个客户端;单位:毫秒
--interval_of_msg-I-1000每间隔多少时间发送一个消息
--username-u-无;非必选客户端用户名
--password-P-无;非必选客户端密码
--topic-t-无;必选发布的主题;支持站位符:%c:表示 ClientId、 %u:表示 Username、 %i:表示客户端的序列数
--szie-s-256消息 Payload 的大小;单位:字节
--qos-q-0Qos 等级
--retain-rtrue/falsefalse消息是否设置 Retain 标志
--keepalive-k-300客户端心跳时间
--clean-Ctrue/falsetrue是否以清除会话的方式建立连接
--ssl-Strue/falsefalse是否启用 SSL
--certfile--客户端 SSL 证书
--keyfile--客户端 SSL 秘钥文件
--ws-true/falsefalse是否以 Websocket 的方式建立连接
--ifaddr--指定客户端连接使用的本地网卡

例如,我们启动 10 个连接,分别每秒向主题 t 发送 100 条 Qos0 消息,其中每个消息体的大小为 16 字节大小:

./emqtt_bench pub -t t -h emqx-server -s 16 -q 0 -c 10 -I 10

订阅

执行 ./emqtt_bench sub --help 可得到该子命令的所有的可用参数。它们的解释已包含在上表中,此处略过。
例如,我们启动 500 个连接,每个都以 Qos0 订阅 t 主题:

./emqtt_bench sub -t t -h emqx-server -c 500

连接

执行 ./emqtt_bench conn --help 可得到该子命令所有可用的参数。它们的解释已包含在上表中,此处略过。
例如,我们启动 1000 个连接:

./emqtt_bench conn -h emqx-server -c 1000

SSL 连接

emqtt_bench 支持建立 SSL 的安全连接,并执行测试。
单向证书,例如:

./emqtt_bench sub -c 100 -i 10 -t bench/%i -p 8883 -S
./emqtt_bench pub -c 100 -I 10 -t bench/%i -p 8883 -s 256 -S

双向证书,例如:

./emqtt_bench sub -c 100 -i 10 -t bench/%i -p 8883 --certfile path/to/client-cert.pem --keyfile path/to/client-key.pem
./emqtt_bench pub -c 100 -i 10 -t bench/%i -s 256 -p 8883 --certfile path/to/client-cert.pem --keyfile path/to/client-key.pem

典型压测场景

场景说明

此处我们以 2 类最典型的场景来验证工具的使用:

  1. 连接量:使用 emqtt_bench 创建百万连接到 EMQ X Broker
  2. 吞吐量:使用 emqtt_bench 在 EMQ X Broker 中创建出 10W/s 的 Qos0 消息吞吐量

机器及部署拓扑图

共需准备三台 8C16G 服务器,一台为 EMQX Broker,两台为 客户端压力机。其中:

  • 系统: CentOS Linux release 7.7.1908 (Core)
  • CPU: Intel Xeon Processor (Skylake) 主频: 2693.670 MHZ
  • 服务端emqx-centos7-v4.0.2.zip
  • 压力机emqtt-bench v0.3.1

    • 每台压力机分别配置 10 张网卡,用于连接测试中建立大量的 MQTT 客户端连接

拓扑结构如下:

+-----------------------+
| bench1: 192.168.0.100 | -------                    +-----------------------+
+-----------------------+        \----->  |            EMQ X Broker          |
+-----------------------+        /----->  |            192.168.0.99          |
| bench2: 192.168.0.101 | -------                    +-----------------------+
+-----------------------+

连接量测试

在执行完系统调优后,首先启动服务端:

./bin/emqx start

然后在 bench1 上的每张网卡上启动 5w 的连接数,共计 50w 的连接:

./emqtt_bench -h 192.168.0.99 -c 50000 --ifaddr 192.168.0.100
./emqtt_bench -h 192.168.0.99 -c 50000 --ifaddr 192.168.0.101
./emqtt_bench -h 192.168.0.99 -c 50000 --ifaddr 192.168.0.102
./emqtt_bench -h 192.168.0.99 -c 50000 --ifaddr 192.168.0.103
./emqtt_bench -h 192.168.0.99 -c 50000 --ifaddr 192.168.0.104
./emqtt_bench -h 192.168.0.99 -c 50000 --ifaddr 192.168.0.105
./emqtt_bench -h 192.168.0.99 -c 50000 --ifaddr 192.168.0.106
./emqtt_bench -h 192.168.0.99 -c 50000 --ifaddr 192.168.0.107
./emqtt_bench -h 192.168.0.99 -c 50000 --ifaddr 192.168.0.108
./emqtt_bench -h 192.168.0.99 -c 50000 --ifaddr 192.168.0.109

bench2 上也执行同样的操作。
在所有连接建立完成后,执行 ./bin/emqx_ctl listeners,并找到以下的内容, 查看 EMQ X Broker 中连接数的信息:

listener on mqtt:tcp:0.0.0.0:1883
  acceptors       : 8
  max_conns       : 1024000
  current_conn    : 1000000
  shutdown_count  : []

吞吐测试

同样的,首先启动服务端:

./bin/emqx start

bench1 启动 500 个订阅客户端:

./emqtt_bench sub -t t -h 192.168.0.99 -c 500

然后再 bench2 上启动 20 个发布端,并且每秒发布 10 条消息:

./emqtt_bench pub -t t -h 192.168.0.99 -c 20 -I 100

然后,回到 bench1 上的订阅客户端,可看到当前接收消息的速率,类似于:

recv(28006): total=2102563, rate=99725(msg/sec)

附上我的压测图:
我使用了 1核1G 的服务器,对 2核8G 的 EMQ X 服务器进行压力得到了 45W 的稳定连接峰值,可以得知最佳比例是 1G 内存对应 6W 设备连接,和官方给出的 32G内存 130W 台设备的连接数非常接近。当然我这里只是空连接,如果要进行消息的订阅、下发,内存会消耗的更多,具体的视使用情况而定。
dashboard

最后修改:2020 年 06 月 09 日 12 : 48 PM
如果觉得我的文章对你有用,请随意赞赏