在生产中,我们往往用nginx或ha-proxy做网络层负载均衡, 但是当后台服务器数量猛涨的时候,这种负载均衡就捉襟见肘了,是否有什么开源的工具,可以把网络层的负载均衡和后端服务器的cpu消耗结合起来,或者有什么算法可以体现这个关系。
对于大量数据处理业务一般都采用硬负载的方式目前硬负载可以实现2-7层数据均衡分发,减少后台服务器处理压力。一般硬负载实现有三种方式:反向代理、透明传输、三角传输。
数据中心视频业务大数据流量业务适用于三角模式,低请求从负载设备vip进入,高处理业务直接从交换机出去。
大部分云部署采用反向代理模式,负载设备可以根据不同需求在负载设备上进行选择和优化,后台服务器性能可以保证,盘挂模式下整体网络拓扑结构容易部署。
透明模式串联在网络拓扑中,链路负载均衡方式、dns负载方式一般采用,此时负载设备性能处理要求高,负载设备在大请求业务下可能成为网络的瓶颈。
收起
推荐采用LVS来实现网络层的负载均衡。LVS有三种工作模式和十种调度算法。
LVS的工作模式:
1. 基于NAT的LVS模式负载均衡
2. 基于TUN的LVS负载均衡
3. 基于DR的LVS负载均衡
LVS的调度算法:
1. 轮询调度
2. 加权轮询调度
3. 最小连接调度
4. 加权最小连接调度
5. 基于局部的最少连接
6. 带复制的基于局部性的最少连接
7. 目标地址散列调度
8. 源地址散列调度
9. 最短的期望的延迟
10. 最少队列调度
具体的原理可以参考以下链接:https://blog.csdn.net/weixin_40470303/article/details/80541639
本身业务的CPU消耗产生的原因就很多。并不完全是用户访问的增长造成的,当一个架构变得复杂的时候。任何一个环节的影响可能都会对整个架构产生影响,
nginx或ha-proxy做网络层负载均衡 一般来说是可以通过横向的资源扩展来降低单节点上的压力的,但是当架构庞大到一定程度的时候就要考虑更详细的划分。比如做缓存加速,或者分离不同的业务内容,架构调整,负载均衡调整,服务器性能提升。还有应用业务和数据库的优化结合才能让整个系统运转正常