HAproxy+nginx搭建负载均衡集群

目录

一,常见的web集群调度器

二,HAproxy集群介绍

1,HAproxy的特性

2,HAproxy常用的调度算法

1,轮询调度

2,最小连接数

3,基于来源访问调度算法

3,nginx和LVS和haproxy有什么区别

三,HAproxy搭建web集群

1,准备操作

2,haproxy服务器部署(192.168.135.166)

 2,安装依赖环境

 3,编译安装haproxy

 4,haproxy服务配置文件修改

5,添加haproxy系统服务 

 四,nginx服务配置

五,Haproxy集群日志重新定义

五,总结


一,常见的web集群调度器

web集群调度器分为软件和硬件

软件通常使用的LVS nginx HAproxy

LVS性能最好,但是搭建相对复杂,nginx和upstream模块支持集群功能,但是集群节点健康检查功能不强,高并发没有haproxy好

硬件一般使用的比较多的是F5

二,HAproxy集群介绍

LVS在企业中抗负载能力很强,但是存在不足

LVS不支持正则表达式,不是实现动静分离,对于大型网站,LVS的使用配置复杂,维护成本相对较高

haproxy是一款可提高可用性,负载均衡,基于tcp/和http应用的代理软件,适合于负载大的web站点

运行在硬件上可以支持数以万计的并发连接请求

1,HAproxy的特性

1,可靠性和稳定性好,可以与硬件F5负载均衡器设备媲美

2,最高可以同时维护四到五万个并发连接,单位时间内处理的最大请求数为两万个,最大处理能力大10git/t

3,支持多达八种负载均衡算法,同时也支持会话保持

4,支持连接拒绝,全透明代理等独特功能

5,支持虚拟主机功能,从而实现web负载均衡器更加灵活

6,拥有强大的ACL支持,用于控制访问

7,其独特的弹性二叉树数据结构,使数据结构的复杂性上升到了0(1),即数据的查询速度不会跟随数据条目的增加而速度有所下降。

8,支持客户端的keepalived功能,减少客户端与haproxy的多次三次握手导致资源浪费,让多个请求在一个tcp连接中完成。

9,支持TCP加速,零复制功能,类似于mmap机制

10,支持响应池

11,支持RDP协议

12,基于源的粘性,类似于nginx的ip_hash功能,把来着同一客户端的请求在一定时间内始终调度到上游的同一服务器。

13,更好统计数据接口其web接口显示后端冀全中各个服务器的接受、发送、拒绝、错误等数据的统计信息

14,详细的健康状态检测,web接口中有关对上游服务器的健康检测状态,并提供了一定的管理功能

15,基于流量的健康评估机制

16,基于http认证

17,基于命令行的管理接口

18,日志分析器,可对日志进行分析

2,HAproxy常用的调度算法

1,轮询调度

RR算法是最简单最常用的一种算法,轮询分配访问请求实现负载均衡效果

2,最小连接数

最小连接数算法,根据厚点的节点连接数大小动态分配前端请求,此算法相比较rr算法有很大改进,是用到比较多的一种算法

3,基于来源访问调度算法

用于一些有Session会话记录在服务端的场景,可基于来源的IP、cookie等做群集调度 举例:当服务器有三个节点,当第一个用户访问到节点A,第二个用户访问到节点B。如果下载第一个用户再次访问时,还是会被指派到节点A,第二个用户也会被指派搭配B,只要负载均衡器不重启,就会一直这样分配。

次调度算法的好处就是实现会话保持,但某些IP访问量非常大时,会引起负载均衡不均匀,部分节点访问量大,影响业务使用。

  • URL
  • 表示根据请求的URL,做cdn需使用,
  • url-param
  • 表示根据HTTP请求头来锁定每一次HTTP请求
  • rdp-cookie
  • 表示根据cookie(name)来锁定并哈希每一次TCP请求
  • source
  • 表示根据请求的源IP,类似Nginx的IP hash机制
  • static -rr
  • 表示根据权重,轮询分配

3,nginx和LVS和haproxy有什么区别

LVS

  1. 基于第三方应用实现的软负载均衡
  2. 只能实现四层的ip负载均衡技术,状态监测单一,但是负载能力强

nginx

  1. 基于第三方应用实现的软负载均衡
  2. 可以使用4层和7层
  3. 主要用于Web服务器或缓存服务器,nginx的upstrean模块虽然也支持群集功能,但是对群集节点健康检查功能不强,性能没有Haproxy好

haproxy

  • 基于linux系统操作内核来实现负载均衡的

  • 可以提供tcp和http应用的负载均衡综合解决方案

  • 状态监测方面功能更加丰富,更强大,可支持端口,URL,脚本等多种状态监测方式。

总结

  • 从三个方面来概述。1,基于系统内核还是第三方应用,2,工作在4层还是七层,3,监测状态
  • LVS基于操作系统内核实现软负载均衡,nginx和haproxy都是基于第三方应用实现。
  • LVS可实现4层ip负载均衡技术,4层中LVS负载均衡最强,nginx和haproxy都可以实现四层和七层
  • LVS状态监测功能单一,haproxy状态监测方面功能强大,可支持,端口,URL,脚本状态监测,nginx主要是web服务器或者缓存服务器,虽然也有upstream模块支持集群功能,但是对节点的健康检查不强

三,HAproxy搭建web集群

1,准备操作

haproxy 服务器 192.168.135.166

nginx1 服务器1 192.168.135.90

nginx2 服务器 192.168.135.91

2,haproxy服务器部署(192.168.135.166)

1,关闭防火墙

 2,安装依赖环境

[root@haproxy ~]#yum -y install pcre-devel zlib-devel gcc gcc-c++ make

 3,编译安装haproxy

tar zxvf haproxy-1.6.9.tar.gz    #解压安装包
cd haproxy-1.6.9/    #进入解压目录

make TARGET=linux2628 ARCH=x86_64     #进行编译
(TARGET=linux2628 表示内核版本,使用uname -r查看内核,如:2.6.18-371.el5,此时该参数用TARGET=linux26;kernel大于2.6.28的用TARGET=linux2628)
(ARCH=x86_64   系统位数,现在基本都是64位)

make install      # 安

 

 4,haproxy服务配置文件修改

mkdir /etc/haproxy
cp /opt/haproxy-1.5.19/examples/haproxy.cfg /etc/haproxy/

cd /etc/haproxy/
vim haproxy.cfg
global		#全局配置,主要用于定义全局参数,属于进程级的配置,通常和操作系统配置有关
--4~5行--修改,定义haproxy日志输出设置和日志级别,local0为日志设备,默认存放到系统日志
		log /dev/log   local0 info		#修改
        log /dev/log   local0 notice	#修改
        #log loghost    local0 info
        maxconn 4096			#最大连接数,需考虑ulimit -n限制,推荐使用10240
--8行--注释,chroot运行路径,为该服务自设置的根目录,一般需将此行注释掉
        #chroot /usr/share/haproxy
        uid 99					#用户UID
        gid 99					#用户GID
        daemon					#守护进程模式
		nbproc 1				#添加,设置并发进程数,建议与当前服务器CPU核数相等或为其2倍

defaults   	#配置默认参数,这些参数可以被用到Listen,frontend,backend组件     
		log     global			#引入global定义的日志格式
        mode    http			#模式为http(7层代理http,4层代理tcp)
        option  httplog			#日志类别为http日志格式
        option  dontlognull		#不记录健康检查日志信息
        retries 3				#检查节点服务器失败次数,连续达到三次失败,则认为节点不可用
        redispatch				#当服务器负载很高时,自动结束当前队列处理比较久的连接
        maxconn 2000			#最大连接数,“defaults”中的值不能超过“global”段中的定义
        #contimeout 5000        #设置连接超时时间,默认单位是毫秒
        #clitimeout 50000       #设置客户端超时时间,默认单位是毫秒
        #srvtimeout 50000       #设置服务器超时时间,默认单位是毫秒
        timeout http-request 10s 	#默认http请求超时时间
        timeout queue 1m   		#默认队列超时时间
        timeout connect 10s		#默认连接超时时间,新版本中替代contimeout,该参数向后兼容
        timeout client 1m		#默认客户端超时时间,新版本中替代clitimeout,该参数向后兼容
        timeout server 1m		#默认服务器超时时间,新版本中替代srvtimeout,该参数向后兼容
        timeout http-keep-alive 10s		#默认持久连接超时时间
        timeout check 10s		#设置心跳检查超时时间


--删除下面所有listen项--,添加
listen  webcluster 0.0.0.0:80	#haproxy实例状态监控部分配置,定义一个名为webcluster的应用
        option httpchk GET /index.html	#检查服务器的test.html文件
        balance roundrobin				#负载均衡调度算法使用轮询算法roundrobin
        server inst1 192.168.135.90:80 check inter 2000 fall 3		#定义在线节点
        server inst2 192.168.135.91:80 check inter 2000 fall 3

---------------------参数说明-----------------------------------------------------------------
balance roundrobin		#负载均衡调度算法
#轮询算法:roundrobin;最小连接数算法:leastconn;来源访问调度算法:source,类似于nginx的ip_hash

check inter 2000		#表示启用对此后端服务器执行健康检查,设置健康状态检查的时间间隔,单位为毫秒
fall 3					#表示连续三次检测不到心跳频率则认为该节点失效
若节点配置后带有“backup”表示该节点只是个备份节点,仅在所有在线节点都失效该节点才启用。不携带“backup”,表示为主节点,和其它在线节点共同提供服务。

 

--删除下面所有listen项--,添加
listen  webcluster 0.0.0.0:80	#haproxy实例状态监控部分配置,定义一个名为webcluster的应用
        option httpchk GET /index.html	#检查服务器的test.html文件
        balance roundrobin				#负载均衡调度算法使用轮询算法roundrobin
        server inst1 192.168.135.90:80 check inter 2000 fall 3		#定义在线节点
        server inst2 192.168.135.91:80 check inter 2000 fall 3

5,添加haproxy系统服务 

cp /opt/haproxy-1.5.19/examples/haproxy.init /etc/init.d/haproxy
chmod +x /etc/init.d/haproxy
chkconfig --add /etc/init.d/haproxy

ln -s /usr/local/sbin/haproxy /usr/sbin/haproxy
service haproxy start	或	/etc/init.d/haproxy start //如果ningx服务器未部署会提示找不到web服务器,可以等web部署完后再开启haproxy

 四,nginx服务配置

nginx服务配置(192.168.135.90)(192.168.135.91)

关闭防火墙

因为指向的是index.html

添加内容

 

 重新启动nginx

[root@nginx91 html]#systemctl restart nginx.service 

之后再启动haproxy,先把web启动后再启动haproxy

 验证网页

haproxy验证

五,Haproxy集群日志重新定义

  • 默认haproxy的日志是输出到系统的syslog中,查看起来不是非常方便,为了更好的管理haproxy的日志,我们在生产环境中一般单独定义出来。需要将haproxy的info及notice日志分别记录到不同的日志文件中。
  • 需要修改rsyslog配置,为了便于管理。将haproxy相关的配置独立定义到haproxy.conf,并放到/etc/rsyslog.d/下,rsyslog启动时会自动加载此目录下的所有配置文件。
     
vim /etc/haproxy/haproxy.cfg
#更改日志文件
global
	log /dev/log local0 info
	log /dev/log local0 notice
#重启haproxy服务
service haproxy restart
#为了便于管理将haproxy相关的配置独立定义到haproxy.conf
vim /etc/rsyslog.d/haproxy.conf
if ($programname == 'haproxy' and $syslogseverity-text == 'info')
then -/var/log/haproxy/haproxy-info.log
&~
if ($programname == 'haproxy' and $syslogseverity-text == 'notice')
then -/var/log/haproxy/haproxy-notice.log
&~
#将haproxy的info日志记录到/var/log/haproxy/haproxy-info.log下,将notice日志记录到/var/log/haproxy/haproxy-notice.log下
#“&~”表示当日志写入到日志文件后,rsyslog停止处理这个信息。
#重启服务
systemctl restart rsyslog.service

更改日志文件并且重启

 为了便于管理将haproxy相关的配置独立定义到haproxy.conf

 使用网页访问192.168.135.166,则会产生对应的日志文件
查看/var/log/haproxy/haproxy-info.log

 停止掉某个节点服务器,然后再刷新页面,开启节点服务器,则会产生haproxy-notice.log文件

五,总结

本文主要讲了haproxy的特性、一些常见的负载均衡策略以及常见的Web集群调服务器,详细讲解了haproxy搭建Web群集的具体步骤。

  • LVS基于Linux操作系统内核实现软负载均衡,而HAProxy和Nginx是基于第三方应用实现的软负载均衡
  • LVS是可实现4层的IP负载均衡技术,而HAProxy和Nginx都可以实现4层和7层技术
  • HAProxy功能强大,但整体性能低于4层模式的LVS负载均衡
     

猜你喜欢

转载自blog.csdn.net/m0_54594153/article/details/126747273