> Linux集群 > 负载均衡SLB >

Heartbeat+LVS构建高可用负载均衡集群(2)



 

上一个帖子介绍了heartbeat的单独使用,今天我们首先来介绍lvs的单独使用,最后将两者结合 起来。提供一个全面的服务。

1.LVS的三种负载均衡技术:

非常幸运的是kernel 2.6x 已经内建了LVS模块,而且在RedHat6版本中也有LVS的安装包ipvsadm。

下面我们对LVS的三种负载均衡技术进行比较:

1.通过NAT实现虚拟服务器(VS/NAT):

由于IPv4中IP地址空间的日益紧张和安全方面的原因,很多网络使用保留IP地址。这些地址不在Internet上使用,而是专门为内部网络预留的。当内部网络中的主机要访问Internet或被Internet访问时,就需要采用网络地址转换(Network Address Translation,以下简称NAT),将内部地址转化为Internets上可用的外部地址。这样当外部网络访问服务的时候,其实是访问那个可以和外界通信的IP,但访问的内容却是在内网的节点上负载均衡的。原理如下图所示:

heartbeat,lvs

2.通过IP隧道实现虚拟服务器(VS/TUN):

它的连接调度和管理与VS/NAT中的一样,只是它的报文转发方法不同。调度器根据各个服务器的负载情况,动态地选择一台服务器,将请求报文封装在另一个IP报文中,再将封装后的IP报文转发给选出的服务器;服务器收到报文后,先将报文解封获得原来目标地址为VIP的报文,服务器发现VIP地址被配置在本地的IP隧道设备上,所以就处理这个请求,然后根据路由表将响应报文直接返回给客户。

记住它和NAT的不同是,可以直接与客户机建立链接。原理如下图所示:

heartbeat,lvs

3.通过直接路由实现虚拟服务器(VS/DR):

调度器和服务器组都必须在物理上有一个网卡通过不分断的局域网相连,如通过高速的交换机或者HUB相连。VIP地址为调度器和服务器组共享,调度器配置的VIP地址是对外可见的,用于接收虚拟服务的请求报文;所有的服务器把VIP地址配置在各自的Non-ARP网络设备上,它对外面是不可见的,只是用于处理目标地址为VIP的网络请求。

这个模型是我们今天要做的,每个节点都有一个虚拟IP(控制节点和真正提供服务的节点(RS)),其中的调度由控制器完成的(RR轮叫算法),服务不会主动的去提供服务。与TUN相同的是,他们也是可以直接和客户机通信。原理如图所示:

heartbeat,lvs

2.LVS的安装和配置:

首先我们还是打开那个熟悉的控制台:

heartbeat,lvs

安装ipvsadm:

heartbeat,lvs

当前没有任何调度列表:

heartbeat,lvs

添加虚拟ip作为公共访问ip:

heartbeat,lvs

 

我们添加虚拟ip的httpd服务的端口,并且采用了轮叫的算法(RR):

heartbeat,lvs

允许server106和server107的httpd服务作为轮叫的节点:

heartbeat,lvs

在serevr106和server107上分别安装httpd服务:

heartbeat,lvs

heartbeat,lvs

图片8

然后我们要做以下事情:

1.server106和server107要能够识别192.168.2.110这个虚拟IP,所以他们也要添加这个虚拟网卡。

2.为了体现出轮叫的效果,我们在两者的默认发布目录中写入不同的内容以示区别。

heartbeat,lvs

图片9

heartbeat,lvs

图片10

现在控制节点和提供真实服务的节点都能够识别VIP(192.168.2.110),接下来我们要在提供服务的节点上添加策略,这个感觉和防火墙很类似,不过要安装一个额外的软件:

heartbeat,lvs

图片11

heartbeat,lvs

此时还没任何策略设置:

heartbeat,lvs

图片13

 

添加策略,把直接进来访问192.168.2.110的包全部丢弃,让从192.168.2.110出去的包从192.168.2.106出去(192.168.2.107同理)。

heartbeat,lvs

图片14

heartbeat,lvs

图片15

保存策略:

heartbeat,lvs

图片16

现在我们通过浏览器反复访问192.168.2.110(确保服务节点的httpd服务开启),多刷新几次:

这个是我们在访问之前控制节点记录的信息:

heartbeat,lvs

图片17

在访问了32次之后,我们发现两个节点各轮叫了16次,但是访问的ip都是虚拟ip(192.168.2.110),这就是直连情况下的LVS方案。

heartbeat,lvs

而且网页的内容也在轮循变化:

heartbeat,lvs

heartbeat,lvs

3.小结:

本帖先是介绍了LVS的三种负载均衡技术,然后我们身体力行的搭建了直连情况下的LVS,那么在下个帖子中我们会把LVS和heartbeat结合起来组成一个健壮的服务。

 

之前我们把LVS和heartbeat都单独进行了测试,是时候进行合并了

1.LVS+heartbeat:

首先显示我们的控制台:

LVS+heartbeat

让这两个软件能够互相协作,并且让该平台具有能够报警和挽救的机制,我们需要安装ldirectord软件。

ldirectord-3.9.2-1.2.x86_64.rpm

在server101和server105上安装ldirectord(因为包和系统的包有依赖性,所有使用yum安装):

LVS+heartbeat

这些是ldirectord的相关文件位置,拷贝配置文件到heartbeat的配置文件目录下::

LVS+heartbeat

两边的节点上都安装perl-IO-Socket-INET6-2.56-4.el6.noarch:,否则后面的ldirectord会因为缺少脚本无法打开:

LVS+heartbeat

编辑ldirectord的配置文件(vim directord.cf):

LVS+heartbeat

我们指定两个真实服务的节点192.168.2.106和192.168.2.107,他们的访问顺序采用轮叫的方式,当两个节点都挂掉的话,192.168.2.101这个节点自己提供服务。

把这个配置文件拷贝到另外一个控制节点192.168.2.105的配置文件处:

LVS+heartbeat

编辑haresources文件,添加ldirectord服务到heartbeat中:

LVS+heartbeat

同样巴这个文件也拷贝到192.168.2.105:/etc/ha.d/中:

LVS+heartbeat

这个时候我们直接启动heartbeat服务,他会自动调用ldirectord服务,而我们的ldirectord的配置文件里的内容完成着和LVS一样的调度功能,这样平台搭建基本完成:

这个是ip的信息:

LVS+heartbeat

然后我们访问下192.168.2.110的网址:

LVS+heartbeat

再查看lvs的信息,每个节点都被访问了4次:

LVS+heartbeat

小结:

这样就把heartbeat、LVS、ldirectord结合起来完成了一个高可用的集群方案,这里只演示了httpd服务,如果生产环境中有其他的服务,也可自行添加。下个帖子我们还会介绍另外一种集群方案keepalived。

 

(责任编辑:IT)