870-Linux下解决高并发socket最大连接数限制

linux作为服务器系统,当socket运行高并发TCP程序时,通常会出现连接建立到一定个数后不能再建立连接的情况。

我在做集群集群聊天服务器项目的时候,多次测试,发现每次连接建立到1000左右时,再也不能建立tcp连接,

通过这个命令 ulimit -n 可以看到默认值为1024


最近通过上网搜索,linux系统默认ulimit为1024个访问 用户最多可开启的程序数目。一般一个端口的最高连接为2的16次方65535。

查看全局文件句柄数限制(系统支持的最大值)
cat /proc/sys/fs/file-max


方法1
这个方法仅仅在当前打开的终端有效


方法2
第一步,修改/etc/security/limits.conf文件,在文件中添加如下行(*指代系统用户名),修改Linux系统对用户的关于打开文件数的软限制和硬限制:

soft nofile 65536

hard nofile 65536

第二步,修改/etc/pam.d/login文件,在文件中添加如下行:

session required /lib/security/pam_limits.so
1
如果是64bit系统的话,应该为 :
session required /lib64/security/pam_limits.so

第三步,修改/etc/sysctl.conf文件,在文件中(清除文件原始内容(或者在原有的基础上添加,我是这么干的))添加如下行(修改网络内核对TCP连接的有关限制),其中fs.file-max=1000000 为全局限制,就是整台机器最大句柄数。

net.ipv4.ip_local_port_range = 1024 65535
 
net.core.rmem_max=16777216
 
net.core.wmem_max=16777216
 
net.ipv4.tcp_rmem=4096 87380 16777216
 
net.ipv4.tcp_wmem=4096 65536 16777216
 
net.ipv4.tcp_fin_timeout = 10
 
net.ipv4.tcp_tw_recycle = 1
 
net.ipv4.tcp_timestamps = 0
 
net.ipv4.tcp_window_scaling = 0
 
net.ipv4.tcp_sack = 0
 
net.core.netdev_max_backlog = 30000
 
net.ipv4.tcp_no_metrics_save=1
 
net.core.somaxconn = 262144
 
net.ipv4.tcp_syncookies = 0
 
net.ipv4.tcp_max_orphans = 262144
 
net.ipv4.tcp_max_syn_backlog = 262144
 
net.ipv4.tcp_synack_retries = 2
 
net.ipv4.tcp_syn_retries = 2
 
fs.file-max=1000000

第四步,执行如下命令(使上述设置生效):

/sbin/sysctl -p /etc/sysctl.conf
 
/sbin/sysctl -w net.ipv4.route.flush=1

第五步,执行如下命令(linux系统优化完网络必须调高系统允许打开的文件数才能支持大的并发,默认1024是远远不够的):

echo ulimit -HSn 65536 >> /etc/rc.local
 
echo ulimit -HSn 65536 >>/root/.bash_profile
 
ulimit -HSn 65536

第六步,重启机器。

通过这个命令 ulimit -n 可以看到值改为65536了,也就是说现在最多支持65536个tcp socket连接了
通过修改,tcp可以达到20000个连接完全没有问题

查看当前有多少个TCP连接到当前服务器命令:

全部评论

相关推荐

整顿职场的柯基很威猛:这种不可怕,最可怕的是夹在一帮名校里的二本选手,人家才是最稳的。
点赞 评论 收藏
分享
1 收藏 评论
分享
牛客网
牛客企业服务