博客
关于我
强烈建议你试试无所不能的chatGPT,快点击我
Linux双机热备解决方案之Heartbeat
阅读量:6823 次
发布时间:2019-06-26

本文共 4290 字,大约阅读时间需要 14 分钟。

拓扑图:

环境描述:

操作系统:CentOS6.3_x64

主:eth0 192.168.10.10 心跳:eth1 192.168.1.10

备:eth0 192.168.10.20 心跳:eth1 192.168.1.20

VTP:192.168.128.5

heartbeatLinux-HA)的工作原理heartbeat最核心的包括两个部分,心跳监测部分和资源接管部分,心跳监测可以通过网络链路和串口进行,而且支持冗余链路,它们之间相互发送报文来告诉对方自己当前的状态,如果在指定的时间内未受到对方发送的报文,那么就认为对方失效,这时需启动资源接管模块来接管运 行在对方主机上的资源或者服务。

Heartbeat:(心跳检测)本身是整个集群的基础(cluster messaging layer),负责维护集群各节点的信息以及它们之前通信;只提供主从备份功能,并不能对各个节点进行监控,需要安装ldirectord

Resource-agent:(资源代理)就是各种的资源的ocf脚本,这些脚本将被LRM调用从而实现各种资源启动、停止、监控等等。

Cluster-glue:相当于一个中间层,可以将heartbeat和crm(pacemaker)联系起来,主要包含2个部分,LRM和STONITH;

Ldirectord:负责realserver的健康检查,可以自动将realserver中宕机的机器移除,不再分配请求。

安装依赖包:

1
yum 
install 
-y gcc gcc-c++ autoconf libtool pkgconfig glib2-devel libxslt-devel libxml2-devel 
bzip2
-devel libtool-ltdl-devel libuuid-devel docbook-style-xsl

安装资源接管服务依赖包:

1
yum 
install 
-y *Socket6* *libwww-perl* *URI* *MailTools* *HTML-Parser* perl-IO-Socket-*

配置host解析

vi /etc/hosts

192.168.10.10 master

192.168.10.20 slave

软件下载:

一、配置主从heartbeat服务器(配置相同)

创建需要的组和用户

1
2
groupadd haclient
useradd 
-g haclient -s 
/sbin/nologin 
-M hacluster

1.安装资源接管服务(要先安装资源接管服务,否则安装心跳服务会报错)

1
2
3
4
5
tar 
zxvf Reusable-Cluster-Components-glue--glue-1.0.9.
tar
.bz2
cd 
Reusable-Cluster-Components-glue--glue-1.0.9
.
/autogen
.sh
.
/configure
make 
&& 
make 
install

2.安装心跳服务

1
2
3
4
tar 
jxvf Heartbeat-3-0-7e3a82377fa8.
tar
.bz2
cd 
Heartbeat-3-0-7e3a82377fa8
.
/ConfigureMe 
configure
make 
&& 
make 
install

报错:./configure: error: Core development headers were not found

解决:./ConfigureMe configure ,如果还解决不了,就是你没有安装Heartbeat服务

报错:gmake[1]: --xinclude: Command not found ,gmake[1]: *** [heartbeat.8] Error 127

解决:yum install libxslt-devel

3.安装中间件服务

1
2
3
4
5
tar 
jxvf ClusterLabs-resource-agents-v3.9.2-0-ge261943.
tar
.gz
cd 
ClusterLabs-resource-agents-b735277
.
/autogen
.sh
.
/configure
make 
&& 
make 
install

报错:syntax error near unexpected token `DBUS,

解决:vi configure,注释这行PKG_CHECK_MODULES(DBUS, dbus-1, dbus-glib-1)

二、配置heartbeat

1
2
3
4
5
6
7
8
9
10
/etc/ha
.d
/ha
.cf 
#定义心跳信息层,用于实现心跳信息传输。
/etc/ha
.d
/haresources 
#本地最重要的CRM,这个文件我们使用v1版本的配置文件,很简单。
/etc/ha
.d
/authkeys 
#实现两个节点之间传递,对心跳信息进行签名,或者加密,避免篡改;authkeys的权限非常重要,通常是400或者600的,如果设置不对无法启动heartbeat服务。
rm 
-rf 
/usr/etc/ha
.d
ln 
-s 
/etc/ha
.d 
/usr/etc
cp 
/usr/share/doc/heartbeat/haresources 
/etc/ha
.d
cp 
/usr/share/doc/heartbeat/authkeys 
/etc/ha
.d
cp 
/usr/share/doc/heartbeat/ha
.cf 
/etc/ha
.d
chmod 
600 
/etc/ha
.d
/authkeys
chkconfig heartbeat on

1.修改配置文件

1
2
3
4
5
vi 
authkeys
auth 2
#1 crc
2 sha1 HI!
#3 md5 Hello!

1
2
3
4
5
6
7
8
9
10
11
12
13
vi 
ha.cf
logfile 
/var/log/ha-log
logfacility local0 
#如果未定义上述日志,默认写入/var/log/message
keepalive 2 
#心跳间隔
deadtime 30 
#死亡阀值
warntime 10 
#警告时间
initdead 120 
#首次启动heartbeat,等待多久才启动主服务资源
udpport 694 
#连接端口
ucast eth1 192.168.1.20 
#采用网卡的eth1组织心跳,后跟接口IP
auto_failback on 
#当主节点故障恢复后,自动获取资源并取代从节点
node master 
#主节点主机名
node slave 
#备份节点主机名
ping 
192.168.1.1 
#选择ping节点,ping的越好对HA集群越稳定,建议使用网关

1
2
3
4
vi 
haresources
master IPaddr::192.168.128.5 ldirectord::ldirectord.cf httpd
#格式:[主机名] [资源名与虚拟ip] [资源名与脚本] [高可用服务]
#每个资源都是一个shell脚本,后面还可以写虚拟IP和资源,heartbeat会使用init脚本来管理系统服务,在范围内搜索脚本并启用
1
2
3
scp 
-r 
/etc/ha
.d root@slave:
/etc/ha
.d 
#配置好的复制到备份服务器上
rm 
-rf 
/usr/etc/ha
.d
ln 
-s 
/etc/ha
.d 
/usr/etc

2.配置ldirectord 

1
2
3
4
5
6
7
8
9
10
11
12
13
14
cp 
ClusterLabs-resource-agents-b735277
/ldirectord/ldirectord
.cf 
/etc/ha
.d/
vi 
/etc/ha
.d
/ldirectord
.cf
checktimeout=3
checkinterval=1
autoreload=
yes
quiescent=
yes
virtual=192.168.128.5:80
    
real=192.168.1.10:80 gate
    
real=192.168.1.20:80 gate
    
fallback=127.0.0.1:80 gate
    
service=http
    
scheduler=rr
    
protocol=tcp
    
checkport=80

三、测试

1
2
3
4
5
6
service iptables stop 
#关闭防火墙
setenforce 0 
#临时关闭selinux
service heartbeat start
ifconfig 
#会显示192.168.0.100绑定在主服务器eth0:0
echo 
“192.168.10.10″ > 
/var/www/html/index
.html
echo 
“192.168.10.20″ > 
/var/www/html/index
.html

hearbeat启动报错:

/etc/init.d/heartbeat: line 53: /etc/ha.d/shellfuncs: No such file or directory

解决:这是因为没有装ClusterLabs-resource-agents导致的,装了这个中间件会把shellfuncs自动复制过去,我们可以手动复制过去即可。

cp ClusterLabs-resource-agents-b735277/heartbeat/shellfuncs /etc/ha.d/


http://192.168.128.5 #正常访问到192.168.10.10

模拟down掉192.168.10.10的httpd服务,再刷新页面显示192.168.10.20,说明配置成功!

生产环境中,网站程序数据必须是一致的,可以采用rsync进行同步或使用共享存储(NFS、ISCSI),后台MySQL数据库可以采用双主热备,实现高可用性。

本文转自 李振良OK 51CTO博客,原文链接:http://blog.51cto.com/lizhenliang/1290433,如需转载请自行联系原作者
你可能感兴趣的文章
下拉列表项的配置方式...
查看>>
Tools - 使用Doxygen和Graphviz分析代码
查看>>
Linux - 针对用户账号的常用操作
查看>>
sqlserver 存储过程
查看>>
shell函数使用
查看>>
[POI2012]Salaries
查看>>
差商的性质
查看>>
[摘录]高效人士七习惯—自我管理原则
查看>>
常用的颜色模型
查看>>
[异常笔记]required a bean of type 'org.quartz.JobExecutionContext' that could not be found
查看>>
Angualr学习笔记
查看>>
前端之过滤transition、动画animation-name-41
查看>>
Decision Tree learning
查看>>
带输入输出参数的存储过程
查看>>
HADOOP安装指南-Ubuntu15.10和hadoop2.7.2
查看>>
Centos6.8 搭建Nginx服务器
查看>>
CSS3 3D酷炫立方体变换动画
查看>>
1B. Spreadsheets
查看>>
$(selector).each()和$.each()的区别
查看>>
Java并发编程:线程池的使用
查看>>