--本文大纲

  • 简介

  • 什么是高可用集群

  • Heartbeat工作原理

  • 基于heartbeat v1实现双机热备

一、简介

Heartbeat是Linux-HA工程的一个组件,自1999年开始到现在,发布了众多版本,是目前开源Linux-HA项目最成功的一个例子,在行业内得到了广泛的应用,随着Linux在关键行业应用的逐渐增多,它必将提供一些原来由IBM和SUN这样的大型商业公司所提供的服务,这些商业公司所提供的服务都有一个关键特性,就是高可用集群。

二、什么是高可用集群

高可用集群,英文原文为High Availability Cluster,简称HA Cluster,是指以减少服务中断(如因服务器宕机等引起的服 务中断)时间为目的的服务器集群技术。简单的说,集群(cluster)就是一组计算机,它们作为一个整体向用户提供一组网络资源。这些单个的计算机系统 就是集群的节点(node)。
高可用集群的出现是为了使集群的整体服务尽可能可用,从而减少由计算机硬件和软件易错性所带来的损 失。它通过保护用户的业务程序对外不间断提供的服务,把因软件/硬件/人为造成的故障对业务的影响降低到最小程度。如果某个节点失效,它的备援节点将在几 秒钟的时间内接管它的职责。因此,对于用户而言,集群永远不会停机。高可用集群软件的主要作用就是实现故障检查和业务切换的自动化。
只有两个节点的高可用集群又称为双机热备,即使用两台服务器互相备份。当一台服务器出现故障时,可由另一台服务器承担服务任务,从而在不需要人工干预的 情况下,自动保证系统能持续对外提供服务。双机热备只是高可用集群的一种,高可用集群系统更可以支持两个以上的节点,提供比双机热备更多、更高级的功能, 更能满足用户不断出现的需求变化。

三、Heartbeat工作原理

heartbeat (Linux-HA)的工作原理:heartbeat最核心的包括两个部分,心跳监测部分和资源接管部分,心跳监测可以通过网络链路和串口进行,而且支持冗 余链路,它们之间相互发送报文来告诉对方自己当前的状态,如果在指定的时间内未收到对方发送的报文,那么就认为对方失效,这时需启动资源接管模块来接管运 行在对方主机上的资源或者服务

四、基于heartbeat v1实现双机热备

注:

配置高可用的前提:

  • 所有节点的主机名一定要与uname -n的结果一致
  • 所有节点的时间必须一致
  • 各节点间能基于ssh密钥认证通信
1、配置过程:
规划:
node1      essun.node1.com    192.168.1.109
node2      essun.node2.com    192.168.1.123

nfs服务器  www.directory.com    192.168.1.118(同时也是集群节点的ping状态检测)

2、node1配置部分

⑴、主机信息部分

vim /ect/hosts

#uname -n

#vim /etc/sysconfig/network

每一个节点都要这类似这样的设置

⑵、时间同步
在每一个节点上执行:
ntpdate   cn.pool.ntp.org(要可以上网才可以)
⑶、ssh密钥认证
在第一个节点上执行
#ssh-keygen -t rsa -P ''#ssh-copy-id -i .ssh/id_rsa.pub root@essun.node2.com

将公钥送达到每一个节点上,(每一个节点都要如此做)

2、安装软件包
yum install perl-TimeDate net-snmp-libs libnet PyXML
注:libnet是在epel源中,所以要下载EPEL源安装包即可

下载对应的版本就可以的。
rpm -ivh epel-release-6-8.noarch.rpm

之后就可以使用yum安装EPEL中的包了

#rpm -ivh heartbeat-2.1.4-12.el6.x86_64.rpm heartbeat-stonith-2.1.4-12.el6.x86_64.rpm heartbeat-pils-2.1.4-12.el6.x86_64.rpm

两个节点都要如此安装。
3、配置heartbeat
  • 信息层

  • 资源管理器

  • 资源代理

第一步:配置HMAC 所使用的密码串算法(使用的是单向加密)
heartbeart 心跳信号信息监听于UDP694端口,心跳信息传输方式:可以是单播,多播和组播,还可以基于串行线缆传输心跳信号
配置文件所在的位置 /etc/ha.d

其实这里并没有配置文件,它仅提供一个配置模板,存放于

[root@essun ha.d]# rpm -ql heartbeat |grep ha.cf/usr/share/doc/heartbeat-2.1.4/ha.cf

在这个目录中我们将用到三个文件

[root@essun heartbeat-2.1.4]#pwd/usr/share/doc/heartbeat-2.1.4[root@essun heartbeat-2.1.4]# lsapphbd.cf            HardwareGuide.txtauthkeys             haresourcesAUTHORS              hb_report.htmlChangeLog            hb_report.txtCOPYING              heartbeat_api.htmlCOPYING.LGPL         heartbeat_api.txtDirectoryMap.txt     logd.cffaqntips.html        READMEfaqntips.txt         Requirements.htmlGettingStarted.html  Requirements.txtGettingStarted.txt   rsync.htmlha.cf                rsync.txtHardwareGuide.html   startstop

authkeys:用于HMAC信息加密的认证机制与认证密码(此文件的权限必须为600,否则heartbeat 无法启动)
haresources:此文件用于定义资源
将此目录中的三个文件复制到/etc/ha.d目录下
#cp /usr/share/doc/heartbeat-2.1.4/{authkeys,haresources,ha.cf } /etc/ha.d/ -a

配置信号算法认证所使用的密钥

#vim /etc/ha.d/authkeysauth 2 #认证算法#1 crc2 sha1 HI! #认证所使用的算法#3 md5 Hello!

或使用openssl生成随机数

[root@essun ha.d]# openssl rand -hex 87d4d4401f3d151dc

改变此文件的权限:

[root@essun ha.d]# chmod 600 authkeys[root@essun ha.d]# ll authkeys-rw------- 1 root root 643 Apr 18 00:01 authkeys
第二步,设置核心配置文件ha.cf
注:此文件中的如果#号后面有个空格或一个制表符,表示其行是注释信息,如果在#号后直接接的是字符表示是参数,将#号删除开启对应的参数功能。
1、heartbeat记录日志的方式有两种,可以指定文件,也可以借助于rsyslog.conf日志配置文件来记录日志,默认是借助于rsyslog来记录日志的

配置属性信息

[root@essun ha.d]# grep -v "#" /etc/ha.d/ha.cf |grep -v "^$"logfile    /var/log/ha-logkeepalive 1000msdeadtime 8warntime 3udpport    694mcast eth0 225.0.32.1 694 1 0auto_failback onnode    essun.node1.comnode    essun.node2.comping 192.168.1.118compression    bz2compression_threshold 2[root@essun ha.d]#
以上参数注解:
logfile /var/log/ha-log
指明heartbaet的日志存放位置
keepalive 1000ms
指定心跳使用间隔时间为1秒(即每两秒钟在eth0上发送一次广播)
deadtime 8
指定备用节点在8秒内没有收到主节点的心跳信号后,则立即接管主节点的服务资源
warntime 3
指定心跳延迟的时间为3秒。当3秒钟内备份节点不能接收到主节点的心跳信号时,就会往日志中写入一个警告日志,但此时不会切换服务
udpport 694
设置广播通信使用的端口,694为默认使用的端口号。
auto_failback on
用来定义当主节点恢复后,是否将服务自动切回,heartbeat的两台主机分别为主节点和备份节点。主节点在正常情况下占用资源并运行所有的服务,遇到故障时把资源交给备份节点并由备份节点运行服务。在该选项设为on的情况下,一旦主节点恢复运行,则自动获取资源并取代备份节点,如果该选项设置为off,那么当主节点恢复后,将变为备份节点,而原来的备份节点成为主节点
mcast eth0 225.0.32.1 694 1 0
采用网卡eth0的Udp多播来组织心跳,一般在备用节点不止一台时使用。Bcast、ucast和mcast分别代表广播、单播和多播,是组织心跳的三种方式,任选其一即可。
essun.node1.com
主节点主机名,可以通过命令“uanme –n”查看。
essun.node2.com
备用节点主机名
ping 192.168.1.118
选择ping的节点,ping
节点选择的越好,HA集群就越强壮,可以选择固定的路由器作为ping节点,但是最好不要选择集群中的成员作为ping节点,ping节点仅仅用来测试网络连接
compression     bz2
对传输的数据进行压缩,是可选项
compression_threshold 2
表示小于2k将不予以压缩

在node1和node2中安装http服务并对其进行访问测试

node1

[root@essun download]# echo "192.168.1.109" > /var/www/html/index.html[root@essun download]# service httpd startStarting httpd:                                        [  OK  ][root@essun download]# curl http://192.168.1.123192.168.1.123

node2

[root@essun ha.d]# echo "192.168.1.123"> /var/www/html/index.html[root@essun ha.d]# service httpd startStarting httpd:                                        [  OK  ][root@essun ha.d]# curl http://192.168.1.109192.168.1.109

如果测试没有问题将两节点的服务停止,并开机一定不能自动启动(做高可用集群,各节点上的服务要统一由集群资源管理器来调度)
node1

[root@essun download]# service httpd stopStopping httpd:                                        [  OK  ][root@essun download]# chkconfig httpd off

node2

[root@essun ha.d]# service httpd stopStopping httpd:                                        [  OK  ][root@essun ha.d]# chkconfig httpd off

第三步,定义集群资源管理器
注:

[root@essun ha.d]# cd resource.d/[root@essun resource.d]# lsapache        ICP        LinuxSCSI          Raid1AudibleAlarm  ids        LVM                SendArpdb2           IPaddr     LVSSyncDaemonSwap  ServeRAIDDelay         IPaddr2    MailTo             WASFilesystem    IPsrcaddr  OCF                WinPopuphto-mapfuncs  IPv6addr   portblock          Xinetd[root@essun resource.d]# pwd/etc/ha.d/resource.d

这里定义资源所调用脚本(RA:资源代理)
RA有四种类型
heartbeat legacy: heartbeat的传统类型
LSB:/etc/rc.d/init.d/*
OCF: Open Cluster Framework
provider: pacemaker
             linbit
STONITH

而在/etc/ha.d/resource.d中定义的就是传统类型的,如果在此目录没有对应的资源代理则将查找LSB类型的RA(其目录为/etc/rc.d/init.d/*)

#vim /etc/ha.d/haresourcesessun.node1.com 192.168.1.110/24/eth0 httpd

第一段表示集群更倾向那一个节点;
第二段表示一个集群资源ip地址,掩码,网卡
第三段表示定义有服务资源为http
此条记录真正的意义为:
通过集群ip192.168.1.110优先访问essun.node1.com的节点上的http服务。如果此节点宕机,则转移到第二个节点上(在ha.cf中定义的节点),如果后来essun.node1.com从新上线,则还在将集群资源夺回来(也是在ha.cf中定义的)

将三个配置文件同步到所有节点上(我这里只有node1和node2)

[root@essun ha.d]# scp -p ha.cf authkeys haresources node1:/etc/ha.d/ha.cf                 100%   10KB  10.4KB/s   00:00authkeys              100%  643     0.6KB/s   00:00haresources           100% 5905     5.8KB/s   00:00

到node1上查看一下

[root@essun ha.d]# lsauthkeys  harc         rc.d           resource.dha.cf     haresources  README.config  shellfuncs

所有文件都同步过来了

在两个节点上启动集群管理器

[root@essun ha.d]# service heartbeat startStarting High-Availability services:2014/04/18_01:25:32 INFO:  Resource is stoppedDone.[root@essun ha.d]# ssh essun.node2.com 'service heartbeat start'Starting High-Availability services:2014/04/18_01:26:45 INFO:  Resource is stoppedDone.[root@essun ha.d]#

注:最好是在同一个节点上启动heartbeat服务
查看一下日志

#tail -40 /var/log/ha-logheartbeat[3647]: 2014/04/18_01:25:32 info: Configuration validated. Starting heartbeat 2.1.4heartbeat[3648]: 2014/04/18_01:25:32 info: heartbeat: version 2.1.4heartbeat[3648]: 2014/04/18_01:25:32 info: Heartbeat generation: 1397754809heartbeat[3648]: 2014/04/18_01:25:32 info: glib: UDP multicast heartbeat started for group 225.0.32.1 port 694 interface eth0 (ttl=1 loop=0)heartbeat[3648]: 2014/04/18_01:25:32 info: glib: ping heartbeat started.heartbeat[3648]: 2014/04/18_01:25:32 info: G_main_add_TriggerHandler: Added signal manual handlerheartbeat[3648]: 2014/04/18_01:25:32 info: G_main_add_TriggerHandler: Added signal manual handlerheartbeat[3648]: 2014/04/18_01:25:32 info: G_main_add_SignalHandler: Added signal handler for signal 17heartbeat[3648]: 2014/04/18_01:25:32 info: Local status now set to: 'up'heartbeat[3648]: 2014/04/18_01:25:33 info: Link 192.168.1.118:192.168.1.118 up.heartbeat[3648]: 2014/04/18_01:25:33 info: Status update for node 192.168.1.118: status pingheartbeat[3648]: 2014/04/18_01:25:39 info: Link essun.node2.com:eth0 up.heartbeat[3648]: 2014/04/18_01:25:39 info: Status update for node essun.node2.com: status upharc[3660]:    2014/04/18_01:25:39 info: Running /etc/ha.d/rc.d/status statusheartbeat[3648]: 2014/04/18_01:25:39 info: Comm_now_up(): updating status to activeheartbeat[3648]: 2014/04/18_01:25:39 info: Local status now set to: 'active'heartbeat[3648]: 2014/04/18_01:25:40 info: Status update for node essun.node2.com: status activeharc[3678]:    2014/04/18_01:25:40 info: Running /etc/ha.d/rc.d/status statusheartbeat[3648]: 2014/04/18_01:25:50 info: remote resource transition completed.heartbeat[3648]: 2014/04/18_01:25:50 info: remote resource transition completed.heartbeat[3648]: 2014/04/18_01:25:50 info: Initial resource acquisition complete (T_RESOURCES(us))IPaddr[3729]:    2014/04/18_01:25:50 INFO:  Resource is stoppedheartbeat[3693]: 2014/04/18_01:25:50 info: Local Resource acquisition completed.harc[3779]:    2014/04/18_01:25:50 info: Running /etc/ha.d/rc.d/ip-request-resp ip-request-respip-request-resp[3779]:    2014/04/18_01:25:50 received ip-request-resp 192.168.1.100/24/eth0 OK yesResourceManager[3798]:    2014/04/18_01:25:50 info: Acquiring resource group: essun.node1.com 192.168.1.100/24/eth0 httpdIPaddr[3824]:    2014/04/18_01:25:50 INFO:  Resource is stoppedResourceManager[3798]:    2014/04/18_01:25:50 info: Running /etc/ha.d/resource.d/IPaddr 192.168.1.100/24/eth0 startIPaddr[3921]:    2014/04/18_01:25:50 INFO: Using calculated netmask for 192.168.1.100: 255.255.255.0IPaddr[3921]:    2014/04/18_01:25:50 INFO: eval ifconfig eth0:0 192.168.1.100 netmask 255.255.255.0 broadcast 192.168.1.255IPaddr[3892]:    2014/04/18_01:25:50 INFO:  SuccessResourceManager[3798]:    2014/04/18_01:25:51 info: Running /etc/init.d/httpd  start

查看一下node1是否添加网卡正常

[root@essun heartbeat2]# ifconfigeth0      Link encap:Ethernet  HWaddr 00:0C:29:1E:F8:F9          inet addr:192.168.1.109  Bcast:255.255.255.255  Mask:255.255.255.0          inet6 addr: fe80::20c:29ff:fe1e:f8f9/64 Scope:Link          UP BROADCAST RUNNING MULTICAST  MTU:1500  Metric:1          RX packets:52073 errors:0 dropped:0 overruns:0 frame:0          TX packets:25502 errors:0 dropped:0 overruns:0 carrier:0          collisions:0 txqueuelen:1000          RX bytes:35207636 (33.5 MiB)  TX bytes:8188830 (7.8 MiB)eth0:0    Link encap:Ethernet  HWaddr 00:0C:29:1E:F8:F9          inet addr:192.168.1.100  Bcast:192.168.1.255  Mask:255.255.255.0          UP BROADCAST RUNNING MULTICAST  MTU:1500  Metric:1lo        Link encap:Local Loopback          inet addr:127.0.0.1  Mask:255.0.0.0          inet6 addr: ::1/128 Scope:Host          UP LOOPBACK RUNNING  MTU:16436  Metric:1          RX packets:708 errors:0 dropped:0 overruns:0 frame:0          TX packets:708 errors:0 dropped:0 overruns:0 carrier:0          collisions:0 txqueuelen:0          RX bytes:62304 (60.8 KiB)  TX bytes:62304 (60.8 KiB)

访问一下集群IP地址看一下是不是node1的ip地址

从此处看是没有问题,看一下是否能够完成切换。

在node2上将heartbeat服务停止,(在一个正常的节点上停止另一个节点,模拟故障)再次访问一下会出现什么情况?

[root@essun ha.d]# ssh node1 'service heartbeat stop'Stopping High-Availability services:Done.[root@essun ha.d]#

刷新一下页面,看一下效果

顺利的切换到node2上了。如果node1从新上线,会不会将集群资源夺回去呢,来看一下效果

在节点node1重新启动heartbeat服务,模拟主机重新上线

[root@essun heartbeat2]# service heartbeat startStarting High-Availability services:2014/04/18_01:41:17 INFO:  Resource is stoppedDone.[root@essun heartbeat2]#

重新刷新一下页面,看一下效果

node1重新上线后,所有的集群资源又都夺回来了

第四步、在directory创建共享,给两了集群节点提供文件共享

[root@www /]# yum install -y nfs*[root@www /]# mkdir -pv /www/sharemkdir: created directory `/www`mkdir: created directory `/www/share`[root@www /]# echo -e "/www/share\t192.168.0.0(rw)" > /etc/exports[root@www /]# cat /etc/exports/www/share  192.168.0.0(rw)[root@www /]# setfacl -m u:apache:rwx /www/share/[root@www /]# echo "

此站点来自于NFS

"> /www/share/index.html[root@www /]# cat /www/share/index.html

此站点来自于NFS

[root@www /]# service nfs startStarting NFS services: [ OK ]Starting NFS quotas: [ OK ]Starting NFS mountd: [ OK ]Starting NFS daemon: [ OK ]Starting RPC idmapd: [ OK ][root@www /]#

停止前端所有的集群节点

[root@essun heartbeat2]# uname -nessun.node1.com[root@essun heartbeat2]# service heartbeat stopStopping High-Availability services:Done.[root@essun heartbeat2]# ssh node2 'service heartbeat stop'Stopping High-Availability services:Done.[root@essun heartbeat2]#
在集群资源管理器中添加上nfs资源

在node1上修改/etc/ha.d/haresources

#vim /etc/ha.d/haresourcesessun.node1.com 192.168.1.100/24/eth0 Filesystem::192.168.1.118:/www/share::/var/www/html::nfs httpd
注:
多个资源间是有先后顺序的,必须要按其顺序来引用资源代理,比如此处:
如果httpd要使用nfs文件系统,就必须先挂载后使用
Filesystem::192.168.1.118:/www/share::/var/www/html::nfs
参数传递间隔符是::资源代理的名字必须要与资源代理(脚本)名相同,区分大小写
第一段表示资源代理的类型
第二段表示为运端的NFS文件共享的目录
第三段表示要挂载的位置
第四段为文件系统的类型
启动node1测试下
[root@essun heartbeat2]# service heartbeat startStarting High-Availability services:2014/04/18_02:44:50 INFO:  Resource is stoppedDone.

刷新页面试试

停止node1节点,将node2启动后,它的页面应该还是其IP地址所在的页面

[root@essun heartbeat2]# ssh node2 'service heartbeat start'Starting High-Availability services:2014/04/18_02:50:42 INFO:  Resource is stoppedDone.[root@essun heartbeat2]# service heartbeat stopStopping High-Availability services:Done.[root@essun heartbeat2]#

结果如下,如果我将node1上的haresources同步到node2上,那么结果将与node1相同。

同步一下试试。

[root@essun heartbeat2]# ssh node2 'service heartbeat stop'Stopping High-Availability services:Done.[root@essun heartbeat2]# scp /etc/ha.d/haresources node2:/etc/ha.d/haresources                                                                                         100% 6006     5.9KB/s   00:00[root@essun heartbeat2]# ssh node2 'service heartbeat start'Starting High-Availability services:2014/04/18_02:54:00 INFO:  Resource is stoppedDone.[root@essun heartbeat2]#

刷新一下试试

注:
此时我的node1并没有启动。
如果想要模拟故障也并不是非要停止heartbeat服务,只要使用/usr/share/heartbeat/下的hb_standby脚本同样也可以做到(hb_takeover可以实现重新启动)。

以上操作实际上是对同组资源顺序引用说明,既然属于同组,就可以实现同进同退,达到无障碍切换。

====================基于heartbeat v1双机集群演示完毕=====================================