RHCS之用css_tool指令创立HA集群及创立gfs2集群文件体系51CTO博客 - 众发娱乐

RHCS之用css_tool指令创立HA集群及创立gfs2集群文件体系51CTO博客

2019年03月10日08时08分12秒 | 作者: 香波 | 标签: 集群,文件,体系 | 浏览: 2738

预备环境

node1:192.168.139.2

node2:192.168.139.4

node4:192.168.139.8

node5:192.168.139.9


node1 作为target端

node2 node4 node5 作为initiator端


而且将node2 node4 node5装置cman+rgmanager后装备成一个三节点的RHCS高可用集群,由于gfs2为一个集群文件体系,有必要凭借HA高可用集群将毛病节点Fence掉,及凭借Message Layer进行节点信息传递。

由于要将发现并登入的target做成集成文件体系,所以有必要在node2 node4 node5上装置gfs2-utils


先将原来用luci/ricci创立的集群效劳stop掉(我曾经试验做的一个集群效劳,与此试验无关)


[root@node2 mnt]# clusvcadm -d Web_Service

Local machine disabling service:Web_Service...

[root@node2 mnt]# clustat 

Cluster Status for zxl @ Wed Dec 21 17:55:46 2016

Member Status: Quorate


 Member Name                  ID   Status

                   

 node2.zxl.com                1 Online, Local, rgmanager

 node4.zxl.com       

                          2 Online, rgmanager


 Service Name        Owner (Last)      State         

 -        -      -         

 service:Web_Service   (node2.zxl.com)    disabled 

[root@node2 mnt]#  service rgmanager stop

[root@node2 mnt]#  service cman stop

[root@node4 mnt]#  service rgmanager stop

[root@node4 mnt]#  service cman stop

[root@node4 mnt]# rm -rf /etc/cluster/cluster.conf

[root@node4 mnt]# rm -rf /etc/cluster/cluster.conf

每次装备文件改动都会有备份也删掉

[root@node2 mnt]# ls /etc/cluster/

cluster.conf.bak  cman-notify.d

[root@node2 mnt]# rm -f /etc/cluster/*



假如没有装cman,rgmanager,履行如下指令

[root@node2 mnt]#yum  -y install cman rgmanager


  用css_tool指令创立一个集群,集群称号mycluster

[root@node2 mnt]# ccs_tool create mycluster

[root@node2 mnt]# cat /etc/cluster/cluster.conf 

<?xml version="1.0"?>

<cluster name="mycluster" config_version="1">


  <clusternodes>

  </clusternodes>


  <fencedevices>

  </fencedevices>


  <rm>

    <failoverdomains/>

    <resources/>

  </rm>

</cluster>


添加Fence设备(RHCS集群有必要有)

[root@node2 mnt]# ccs_tool addfence meatware fence_manual

[root@node2 mnt]# ccs_tool lsfence

Name             Agent

meatware         fence_manual


-v 指定节点具有票数

-n 指定节点标识符

-f 指定Fence设备称号


添加三个节点,RHCS集群至少要有三个节点

[root@node2 mnt]# ccs_tool addnode -v 1 -n 1 -f meatware node2.zxl.com

[root@node2 mnt]# ccs_tool addnode -v 1 -n 2 -f meatware node4.zxl.com

[root@node2 mnt]# ccs_tool addnode -v 1 -n 3 -f meatware node5.zxl.com

检查集群节点

[root@node2 mnt]# ccs_tool lsnode


Cluster name: mycluster, config_version: 5


Nodename                        Votes Nodeid Fencetype

node2.zxl.com                      1    1    meatware

node4.zxl.com                      1    2    meatware

node5.zxl.com                      1    3    meatware

仿制装备文件,RHCS集群会凭借cssd进程主动同步

[root@node2 mnt]# scp /etc/cluster/cluster.conf node4:/etc/cluster/

[root@node2 mnt]# scp /etc/cluster/cluster.conf node5:/etc/cluster/

每个节点发动cman rgmanager

[root@node2 mnt]# service cman start

[root@node2 mnt]# service rgmanager start

[root@node4 mnt]# service cman start

[root@node4 mnt]# service rgmanager start

[root@node5 mnt]# service cman start

[root@node5 mnt]# service rgmanager start

[root@node2 mnt]# clustat 

Cluster Status for mycluster @ Wed Dec 21 18:40:26 2016

Member Status: Quorate


 Member Name           ID   Status

           

 node2.zxl.com         1 Online, Local

 node4.zxl.com         2 Online

 node5.zxl.com         3 Online


[root@node2 mnt]# rpm -ql gfs2-utils

/etc/rc.d/init.d/gfs2 

/sbin/fsck.gfs2

/sbin/mkfs.gfs2 \\格局化创立gfs2文件体系的

/sbin/mount.gfs2 \\挂载gfs2文件体系的

/usr/sbin/gfs2_convert


mkfs.gfs2指令的运用

-j 指定日志区域个数,有几个就能被几个节点挂载,由于格局化为集群文件体系后,每个节点都要有日志记载

-J 指定日志巨细,默许128M

-p {lock_dlm|lock_nolock} 分布式锁办理|不必锁

-t <name> 指定锁表的称号

注:一个集群能够有多个文件体系,如一个集群中同享了两个磁盘,两个磁盘能够是gfs2和ocfs2文件体系,不同的文件体系进行加锁时,要用不同的锁表进行仅有标明,所以每个锁都要有锁称号

锁表称号的格局

cluster_name:锁表名

如:mycluster:lock_sda

-D 显现具体的Debug信息


登入target,并格局化为gfs2文件体系

[root@node2 mnt]# iscsiadm -m node -T iqn.2016-12.com.zxl:store1.disk1 -p 192.168.139.2 -l

[root@node2 mnt]# mkfs.gfs2 -j 2 -p lock_dlm -t mycluster:lock_sde1 /dev/sde1

Are you sure you want to proceed? [y/n] y


Device:                 /dev/sde1

Blocksize:               4096

Device Size              3.00 GB (787330 blocks)

Filesystem Size:           3.00 GB (787328 blocks)

Journals:                2

Resource Groups:           13

Locking Protocol:          "lock_dlm"

Lock Table:              "mycluster:lock_sde1"

UUID:                  9ebdc83b-9a61-9a4a-3ba7-9c80e59a0a2d

格局化完结,挂载测验

[root@node2 mnt]# mount -t gfs2 /dev/sde1 /mnt

[root@node2 mnt]# cd /mnt

[root@node2 mnt]# ll

total 0

[root@node2 mnt]# cp /etc/issue ./

[root@node2 mnt]# ll

total 8

-rw-rr. 1 root root 47 Dec 21 19:06 issue


ok,换node4

[root@node4 ~]# iscsiadm -m node -T iqn.2016-12.com.zxl:store1.disk1 -p 192.168.139.2 -l

node4不必再次格局化,直接挂载

[root@node4 ~]# mount -t gfs2 /dev/sdc1 /mnt

[root@node4 ~]# cd /mnt

[root@node4 mnt]# ll \\能够看到node1仿制的文件

total 8

-rw-rr. 1 root root 47 Dec 21 19:06 issue

node4创立一个文件a.txt,会立马告诉给其他节点,让其看到,这就是集群文件体系gfs2的优点

[root@node4 mnt]# touch a.txt

[root@node2 mnt]# ll

total 16

-rw-rr. 1 root root  0 Dec 21 19:10 a.txt

-rw-rr. 1 root root 47 Dec 21 19:06 issue


在加一个节点node5

[root@node5 ~]# iscsiadm -m node -T iqn.2016-12.com.zxl:store1.disk1 -p 192.168.139.2 -l

挂载不上去,由于只创立了两个集群日志文件,有几个日志几个节点就能挂载

[root@node5 ~]# mount -t gfs2 /dev/sdc1 /mnt

Too many nodes mounting filesystem, no free journals

添加日志

[root@node2 mnt]# gfs2_jadd -j 1 /dev/sde1 \\-j 1 添加一个日志

Filesystem:            /mnt

Old Journals           2

New Journals           3

[root@node2 mnt]# gfs2_tool journals /dev/sde1 \\此指令能够检查有几个日志,每个默许巨细128M

journal2 - 128MB

journal1 - 128MB

journal0 - 128MB

3 journal(s) found.

[root@node5 ~]# mount -t gfs2 /dev/sdc1 /mnt \\node5挂载成功

[root@node5 ~]# cd /mnt 

[root@node5 mnt]# touch b.txt

[root@node4 mnt]# ll

total 24

-rw-rr. 1 root root  0 Dec 21 19:10 a.txt

-rw-rr. 1 root root  0 Dec 21 19:18 b.txt

-rw-rr. 1 root root 47 Dec 21 19:06 issue


gfs2集群文件体系一般支撑的集群数量不能超过16个,超往后,功能直线下降


版权声明
本文来源于网络,版权归原作者所有,其内容与观点不代表众发娱乐立场。转载文章仅为传播更有价值的信息,如采编人员采编有误或者版权原因,请与我们联系,我们核实后立即修改或删除。

猜您喜欢的文章