CentOS 6.3下heartbeat+drbd的安装和配置
最近尝试了在VMWare8下的CentOS 6.3安装测试drbd+heartbeat主从热备。 经过几番尝试、折腾, 总算配置好了。给大家分享以下:
1. 首先最小化安装CentOS6.3 安装时选择Minimal, 安装好之后。首先更新并安装几个常用组件:
- yum install wget ftp ntp -y
- yum update -y
2. 安装drbd 8.4.2
由于网上找的rpm包在安装并执行modprobe drbd时总是会导致内核panic, 因此不得不重新在开发机上编译一个。开发机和最小化安装的,准备作为主从热备的虚拟机保持相同的内核版本,在编译之前同样使用yum update -y进行更新, 以免出现内核不兼容崩溃的情况, 为了节约时间, 也可以只更新内核yum update kernel kernel-devel -y。 确保开发机和最小化安装的服务器的uname -r 是同一个rivision,否则modprobe drbd找不到drbd.ko文件。 执行如下命令进行编译:
- cd /tmp
- wget http://oss.linbit.com/drbd/8.4/drbd-8.4.2.tar.gz
- tar xvf drbd-8.4.2.tar.gz
- cd drbd-8.4.2
- mkdir -pv ~/rpmbuild/{BUILD,BUILDROOT,RPMS,SOURCES,SPECS,SRPMS}
- ./configure
- make rpm
- make km-rpm
- cd ~/rpmbuild/RPMS/i686
将~/rpmbuild/RPMS/i686目录下RPM包的拷贝出来并移到最小化安装的服务器上。(通过FTP服务器中转或者其他办法)
主要是以下几个包:
drbd-8.4.2-2.el6.i686.rpm drbd-bash-completion-8.4.2-2.el6.i686.rpm drbd-heartbeat-8.4.2-2.el6.i686.rpm drbd-km-2.6.32_279.el6.i686-8.4.2-2.el6.i686.rpm drbd-udev-8.4.2-2.el6.i686.rpm drbd-utils-8.4.2-2.el6.i686.rpm |
在2台最小化安装的服务器上执行
- yum install drbd-heartbeat-8.4.2-2.el6.i686.rpm \
- drbd-km-2.6.32_279.el6.i686-8.4.2-2.el6.i686.rpm \
- drbd-utils-8.4.2-2.el6.i686.rpm \
- drbd-heartbeat-8.4.2-2.el6.i686.rpm
DRBD的安装就结束了。
3. 安装Heartbeat
接着安装Heartbeat, CentOS 6.3中默认不带有Heartbeat包, 因此需要从第三方下载。
- wget ftp://mirror.switch.ch/pool/1/mirror/scientificlinux/6rolling/i386/os/Packages/epel-release-6-5.noarch.rpm
- rpm -ivUh epel-release-6-5.noarch.rpm
- yum --enablerepo=epel install heartbeat -y
执行以下命令安装Heartbeat。安装的是Heartbeat 3.0.0.4版本。
4. 配置drbd和heartbeat主从节点。
首先准备网络环境, 配置/etc/hosts文件如下
- echo "192.168.10.151 ha1" >> /etc/hosts
- echo "192.168.10.152 ha2" >> /etc/hosts
接着关闭iptables和selinux, iptables在调试成功后可以再开启。 但一般实际部署的时候, 设备都在网关防火墙之后,也就不开启iptables防火墙了。
- service iptables stop
- chkconfig iptables off
- sed -i -e "s/=enforcing/=disabled/g" /etc/selinux/config
- setenforce 0
最后本别在主从节点上做如下配置:
- cat > /etc/drbd.d/global_common.conf << EOF
- global { usage-countno; }
- common {
- net { protocol C; } # 8.4版本以后使用该语法
- syncer { rate 20M; }
- }
- EOF
- cat > /etc/drbd.d/r0.res << EOF
- resource r0 {
- device /dev/drbd0;
- disk /dev/sdb1;
- meta-disk internal;
- on ha1 {
- address 192.168.10.151:7789;
- }
- on ha2 {
- address 192.168.10.152:7789;
- }
- }
- EOF
- cat > /etc/ha.d/ha.cf << EOF
- keepalive 2
- deadtime 10
- warntime 5
- initdead 180
- udpport 11695
- ucast eth0 192.168.10.x #主机这个地方填备机IP, 备机填主机IP。
- node ha1
- node ha2
- auto_failback off
- EOF
- cat > /etc/ha.d/authkeys << EOF
- auth 5
- 5 sha1 heartbeat
- EOF
- chmod -v 600 /etc/ha.d/authkeys
- cat > /etc/ha.d/haresources << EOF
- ha1 IPaddr::192.168.10.150/24/eth0:0 drbddisk::r0 Filesystem::/dev/drbd0::/data::ext3
- EOF
配置完成过后在两台机器上分别创建drbd元数据并开启drbd服务;除了ha.cf文件的ucast配置两台机器不一样外, 其他都是一样的。
- #在创建元数据之前, 先使用fdisk 给两台机器的 /dev/sdb硬盘分区, 因为配置文件中r0写的是/dev/sdb1.
- drbdadm create-md all
- service drbd start
- service heartbeat start
- #在主节点上执行以下命令, 配置主节点
- drbdadm -- --overwrite-data-of-peer primary all
- mkfs.ext3 -v /dev/drbd0
- mkdir -pv data
- mount -v -t ext3 /dev/drbd0 /data
再在两台机器上分别开启heartbeat服务, 配置过程就结束了。
5. 最后测试以下
首先, 看看执行强制primary后, 数据复制的情况:
- [root@ha1 ~]# cat /proc/drbd
- version: 8.4.2 (api:1/proto:86-101)
- GIT-hash: 7ad5f850d711223713d6dcadc3dd48860321070c build by root@developing-machine, 2012-12-11 00:26:13
- 0: cs:SyncSource ro:Primary/Secondary ds:UpToDate/Inconsistent C r-----
- ns:2242052 nr:0 dw:464508 dr:1782728 al:204 bm:117 lo:1 pe:1 ua:6 ap:0 ep:1 wo:f oos:18741616
- [=>..................] sync'ed: 10.7% (18300/20472)M
- finish: 0:05:04 speed: 61,480 (58,484) K/sec
在主节点ha1上, 放一些测试数据在/data目录下之后, 执行service heartbeat stop 或者 shutdown -h now, 关闭主节点。 再在从节点上查看, 从节点的/data目录包含了之前主节点/data目录下的数据。 测试成功并完成了。