前言
如果使用 EMQ 来承载百万级别的用户连接可以吗?毕竟在 MQTT 官方介绍上说 EMQ X 可以处理千万并发客户端,而 EMQ X 自己官方称 4.x 版本 MQTT 连接压力测试一台 8 核心、32G 内存的 CentOS 服务器能够承载 130 万台设备的连接。究竟性能如何呢?试了才知道。
系统调优
Linux 操作系统参数
系统全局允许分配的最大文件句柄数:
# 2 millions system-wide
sysctl -w fs.file-max=2097152
sysctl -w fs.nr_open=2097152
echo 2097152 > /proc/sys/fs/nr_open
允许当前会话 / 进程打开文件句柄数:
ulimit -n 1048576
/etc/sysctl.conf
持久化 'fs.file-max' 设置到 /etc/sysctl.conf 文件:
fs.file-max = 1048576
/etc/systemd/system.conf 设置服务最大文件句柄数:
DefaultLimitNOFILE=1048576
/etc/security/limits.conf
/etc/security/limits.conf 持久化设置允许用户 / 进程打开文件句柄数:
* soft nofile 1048576
* hard nofile 1048576
TCP 协议栈网络参数
并发连接 backlog 设置:
sysctl -w net.core.somaxconn=32768
sysctl -w net.ipv4.tcp_max_syn_backlog=16384
sysctl -w net.core.netdev_max_backlog=16384
可用知名端口范围:
sysctl -w net.ipv4.ip_local_port_range='1000 65535'
TCP Socket 读写 Buffer 设置:
sysctl -w net.core.rmem_default=262144
sysctl -w net.core.wmem_default=262144
sysctl -w net.core.rmem_max=16777216
sysctl -w net.core.wmem_max=16777216
sysctl -w net.core.optmem_max=16777216
#sysctl -w net.ipv4.tcp_mem='16777216 16777216 16777216'
sysctl -w net.ipv4.tcp_rmem='1024 4096 16777216'
sysctl -w net.ipv4.tcp_wmem='1024 4096 16777216'
TCP 连接追踪设置:
sysctl -w net.nf_conntrack_max=1000000
sysctl -w net.netfilter.nf_conntrack_max=1000000
sysctl -w net.netfilter.nf_conntrack_tcp_timeout_time_wait=30
TIME-WAIT Socket 最大数量、回收与重用设置:
sysctl -w net.ipv4.tcp_max_tw_buckets=1048576
# 注意:不建议开启該设置,NAT 模式下可能引起连接 RST
# sysctl -w net.ipv4.tcp_tw_recycle=1
# sysctl -w net.ipv4.tcp_tw_reuse=1
FIN-WAIT-2 Socket 超时设置:
sysctl -w net.ipv4.tcp_fin_timeout=15
Erlang 虚拟机参数
优化设置 Erlang 虚拟机启动参数,配置文件 emqx/etc/emqx.conf:
## Erlang Process Limit
node.process_limit = 2097152
## Sets the maximum number of simultaneously existing ports for this system
node.max_ports = 1048576
EMQ X 消息服务器参数
设置 TCP 监听器的 Acceptor 池大小,最大允许连接数。配置文件 emqx/etc/emqx.conf:
## TCP Listener
listener.tcp.external = 0.0.0.0:1883
listener.tcp.external.acceptors = 64
listener.tcp.external.max_connections = 1024000
测试客户端设置
测试客户端服务器在一个接口上,最多只能创建 65000 连接:
sysctl -w net.ipv4.ip_local_port_range="500 65535"
echo 1000000 > /proc/sys/fs/nr_open
ulimit -n 100000
重启 EMQ X 之后可以在 Dashboard 看到如下显示:
性能压测
emqtt_bench 是基于 Erlang 编写的,一个简洁强大的 MQTT 协议性能测试工具,如需大规模场景、深度定制化的测试服务推荐使用 EMQ 合作伙伴 XMeter 测试服务。
编译安装
emqtt_bench
的运行依赖于 Erlang/OTP 21.2 以上版本运行环境,安装过程略过,详情请参考网上各个安装教程。
Erlang 环境安装完成后,下载 emqtt-bench 最新代码,并编译:
git clone https://github.com/emqx/emqtt-bench
cd emqtt-bench
make
编译完成后,当前目录下会生成 一个名为emqtt_bench 的可执行脚本。执行以下命令,确认其能正常使用:
./emqtt_bench
Usage: emqtt_bench pub | sub | conn [--help]
输出以上内容,则证明 emqtt_bench 已正确安装到主机。
使用
emqtt_bench
共三个子命令:
pub
:用于创建大量客户端执行发布消息的操作sub
:用于创建大量客户端执行订阅主题,并接受消息的操作conn
:用于创建大量的连接
发布
执行 ./emqtt_bench pub --help
会得到可用的参数输出,此处整理:
参数 | 简写 | 可选值 | 默认值 | 说明 |
---|---|---|---|---|
--host | -h | - | localhost | 要连接的 MQTT 服务器地址 |
--port | -p | - | 1883 | MQTT 服务端口 |
--version | -V | 3/4/5 | 5 | 使用的 MQTT 协议版本 |
--count | -c | - | 200 | 客户端总数 |
--startnumber | -n | - | 0 | 客户端数量起始值 |
--interval | -i | - | 10 | 每间隔多少时间创建一个客户端;单位:毫秒 |
--interval_of_msg | -I | - | 1000 | 每间隔多少时间发送一个消息 |
--username | -u | - | 无;非必选 | 客户端用户名 |
--password | -P | - | 无;非必选 | 客户端密码 |
--topic | -t | - | 无;必选 | 发布的主题;支持站位符:%c :表示 ClientId、 %u :表示 Username、 %i :表示客户端的序列数 |
--szie | -s | - | 256 | 消息 Payload 的大小;单位:字节 |
--qos | -q | - | 0 | Qos 等级 |
--retain | -r | true/false | false | 消息是否设置 Retain 标志 |
--keepalive | -k | - | 300 | 客户端心跳时间 |
--clean | -C | true/false | true | 是否以清除会话的方式建立连接 |
--ssl | -S | true/false | false | 是否启用 SSL |
--certfile | - | - | 无 | 客户端 SSL 证书 |
--keyfile | - | - | 无 | 客户端 SSL 秘钥文件 |
--ws | - | true/false | false | 是否以 Websocket 的方式建立连接 |
--ifaddr | - | - | 无 | 指定客户端连接使用的本地网卡 |
例如,我们启动 10 个连接,分别每秒向主题 t 发送 100 条 Qos0 消息,其中每个消息体的大小为 16 字节大小:
./emqtt_bench pub -t t -h emqx-server -s 16 -q 0 -c 10 -I 10
订阅
执行 ./emqtt_bench sub --help
可得到该子命令的所有的可用参数。它们的解释已包含在上表中,此处略过。
例如,我们启动 500 个连接,每个都以 Qos0 订阅 t
主题:
./emqtt_bench sub -t t -h emqx-server -c 500
连接
执行 ./emqtt_bench conn --help
可得到该子命令所有可用的参数。它们的解释已包含在上表中,此处略过。
例如,我们启动 1000 个连接:
./emqtt_bench conn -h emqx-server -c 1000
SSL 连接
emqtt_bench
支持建立 SSL 的安全连接,并执行测试。
单向证书,例如:
./emqtt_bench sub -c 100 -i 10 -t bench/%i -p 8883 -S
./emqtt_bench pub -c 100 -I 10 -t bench/%i -p 8883 -s 256 -S
双向证书,例如:
./emqtt_bench sub -c 100 -i 10 -t bench/%i -p 8883 --certfile path/to/client-cert.pem --keyfile path/to/client-key.pem
./emqtt_bench pub -c 100 -i 10 -t bench/%i -s 256 -p 8883 --certfile path/to/client-cert.pem --keyfile path/to/client-key.pem
典型压测场景
场景说明
此处我们以 2 类最典型的场景来验证工具的使用:
- 连接量:使用 emqtt_bench 创建百万连接到 EMQ X Broker
- 吞吐量:使用 emqtt_bench 在 EMQ X Broker 中创建出 10W/s 的 Qos0 消息吞吐量
机器及部署拓扑图
共需准备三台 8C16G 服务器,一台为 EMQX Broker,两台为 客户端压力机。其中:
- 系统:
CentOS Linux release 7.7.1908 (Core)
- CPU:
Intel Xeon Processor (Skylake)
主频:2693.670 MHZ
- 服务端:
emqx-centos7-v4.0.2.zip
压力机:
emqtt-bench v0.3.1
- 每台压力机分别配置 10 张网卡,用于连接测试中建立大量的 MQTT 客户端连接
拓扑结构如下:
+-----------------------+
| bench1: 192.168.0.100 | ------- +-----------------------+
+-----------------------+ \-----> | EMQ X Broker |
+-----------------------+ /-----> | 192.168.0.99 |
| bench2: 192.168.0.101 | ------- +-----------------------+
+-----------------------+
连接量测试
在执行完系统调优后,首先启动服务端:
./bin/emqx start
然后在 bench1
上的每张网卡上启动 5w 的连接数,共计 50w 的连接:
./emqtt_bench -h 192.168.0.99 -c 50000 --ifaddr 192.168.0.100
./emqtt_bench -h 192.168.0.99 -c 50000 --ifaddr 192.168.0.101
./emqtt_bench -h 192.168.0.99 -c 50000 --ifaddr 192.168.0.102
./emqtt_bench -h 192.168.0.99 -c 50000 --ifaddr 192.168.0.103
./emqtt_bench -h 192.168.0.99 -c 50000 --ifaddr 192.168.0.104
./emqtt_bench -h 192.168.0.99 -c 50000 --ifaddr 192.168.0.105
./emqtt_bench -h 192.168.0.99 -c 50000 --ifaddr 192.168.0.106
./emqtt_bench -h 192.168.0.99 -c 50000 --ifaddr 192.168.0.107
./emqtt_bench -h 192.168.0.99 -c 50000 --ifaddr 192.168.0.108
./emqtt_bench -h 192.168.0.99 -c 50000 --ifaddr 192.168.0.109
在 bench2
上也执行同样的操作。
在所有连接建立完成后,执行 ./bin/emqx_ctl listeners,并找到以下的内容, 查看 EMQ X Broker 中连接数的信息:
listener on mqtt:tcp:0.0.0.0:1883
acceptors : 8
max_conns : 1024000
current_conn : 1000000
shutdown_count : []
吞吐测试
同样的,首先启动服务端:
./bin/emqx start
在 bench1
启动 500 个订阅客户端:
./emqtt_bench sub -t t -h 192.168.0.99 -c 500
然后再 bench2
上启动 20 个发布端,并且每秒发布 10 条消息:
./emqtt_bench pub -t t -h 192.168.0.99 -c 20 -I 100
然后,回到 bench1
上的订阅客户端,可看到当前接收消息的速率,类似于:
recv(28006): total=2102563, rate=99725(msg/sec)
附上我的压测图:
我使用了 1核1G 的服务器,对 2核8G 的 EMQ X 服务器进行压力得到了 45W 的稳定连接峰值,可以得知最佳比例是 1G 内存对应 6W 设备连接,和官方给出的 32G内存 130W 台设备的连接数非常接近。当然我这里只是空连接,如果要进行消息的订阅、下发,内存会消耗的更多,具体的视使用情况而定。