GNU/Linux >> Znalost Linux >  >> Linux

Jak synchronizovat a spustit Redhat Cluster pro ověření scénáře převzetí služeb při selhání

V první části jsme podrobně vysvětlili, jak nainstalovat a nakonfigurovat 2 Node RedHat Cluster.

Následující kroky na vysoké úrovni jsme probrali v předchozím tutoriálu:

  • Nainstalujte a spusťte službu clusteru RICCI
  • Vytvořit cluster na aktivním uzlu
  • Přidat uzel do clusteru
  • Přidat oplocení do clusteru
  • Konfigurujte doménu převzetí služeb při selhání
  • Přidat prostředky do clusteru

V tomto tutoriálu probereme následující kroky na vysoké úrovni k dokončení nastavení clusteru:

  • Synchronizace konfigurace clusteru mezi uzly
  • Spusťte cluster
  • Ověřte převzetí služeb při selhání vypnutím aktivního uzlu

1. Synchronizovat konfigurace napříč uzly

Kdykoli je provedena změna konfigurace nebo poprvé, když instalujete a konfigurujete cluster, měli byste synchronizovat konfigurace z aktivního uzlu se všemi uzly.

Následující příkaz synchronizuje konfigurace clusteru se všemi dostupnými uzly:

[root@rh1 ~]# ccs -h rh1 --sync --activate
rh2 password:

2. Ověřte konfiguraci clusteru

Nakonec ověřte, zda jsou konfigurace platné, jak je uvedeno níže.

[root@rh1 ~]# ccs -h rh1 --checkconf
All nodes in sync.

Pokud se vyskytnou nějaké problémy s konfigurací nebo když se konfigurace na aktivním uzlu neshodují s konfiguracemi na všech uzlech v clusteru, výše uvedený příkaz je náležitě vypíše.

3. Spusťte Cluster

Chcete-li spustit cluster na Node1, proveďte následující:

[root@rh1 ~]# ccs -h rh1 –start

Chcete-li spustit cluster na obou uzlech, proveďte následující:

[root@rh1 ~]# ccs -h rh1 –startall

Chcete-li zastavit cluster na Node1, proveďte následující:

[root@rh1 ~]# ccs -h rh1 –stop

Chcete-li zastavit cluster na obou uzlech, proveďte následující:

[root@rh1 ~]# ccs -h rh1 –stopall

4. Zobrazit stav clusteru

Když je vše v provozu ve vašem Redhat nebo CentOS Linux Clusteru, můžete zobrazit stav clusteru, jak je uvedeno níže:

[root@rh1 cluster]# clustat
Cluster Status for mycluster @ Sat Mar 15 02:05:59 2015
Member Status: Quorate

 Member Name      ID   Status
 ------ ----      ---- ------
 rh1                 1 Online, Local, rgmanager
 rh2                 2 Online

 Service Name          Owner (Last)  State
 ------- ----          ----- ------  -----
 service:webservice1   rh1           started

Jak vidíte ve výše uvedeném výstupu, znamená to, že v našem clusteru jsou dva uzly a oba uzly jsou online a rh1 je aktivní uzel.

5. Ověřte převzetí služeb při selhání clusteru

Chcete-li ověřit převzetí služeb při selhání clusteru, zastavte cluster na aktivním uzlu nebo vypněte aktivní uzel. To by mělo přinutit klastr k automatickému převzetí služeb při selhání prostředku IP a prostředku souborového systému k dalšímu dostupnému uzlu definovanému v doméně převzetí služeb při selhání.

To je to, co aktuálně vidíme na node1.

[root@rh1 ~]# clustat
Cluster Status for mycluster @ Sat Mar 15 14:16:00 2015
Member Status: Quorate

 Member Name  ID   Status
 ------ ----  ---- ------
 rh1             1 Online, Local, rgmanager
 rh2             2 Online, rgmanager

 Service Name         Owner (Last)  State
 ------- ----         ----- ------  -----
 service:webservice1  rh1           started

[root@rh1 ~]# hostname
rh1.mydomain.net

[root@rh1 ~]# ip addr show
1: lo: <LOOPBACK,UP,LOWER_UP> mtu 16436 qdisc noqueue state UNKNOWN
    link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00
    inet 127.0.0.1/8 scope host lo
    inet6 ::1/128 scope host
       valid_lft forever preferred_lft forever
2: eth0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc pfifo_fast state UP qlen 1000
    link/ether 08:00:27:e6:6d:b7 brd ff:ff:ff:ff:ff:ff
    inet 192.168.1.10/24 brd 192.168.1.255 scope global eth0
    inet 192.168.1.12/24 scope global secondary eth0
    inet6 fe80::a00:27ff:fee6:6db7/64 scope link
       valid_lft forever preferred_lft forever

[root@rh1 ~]# df -h /var/www
Filesystem                    Size  Used Avail Use% Mounted on
/dev/mapper/cluster_vg-vol01  993M   18M  925M   2% /var/www

5. Vynutit selhání clusteru

Nyní stáhněte uzel1 a všechny služby a prostředky by měly přejít na druhý uzel a uvidíte jako níže uvedený výstup.

[root@rh1 ~]# shutdown -h now

Poté, co je uzel 1 mimo provoz, na node1 uvidíte následující.

root@rh2 ~]# clustat
Cluster Status for mycluster @ Sat Mar 18 14:41:23 2015
Member Status: Quorate

 Member Name   ID   Status
 ------ ----   ---- ------
 rh1              1 Offline
 rh2              2 Online, Local, rgmanager

 Service Name         Owner (Last)  State
 ------- ----         ----- ------  -----
 service:webservice1  rh2           started

Výše uvedený výstup indikuje, že v clusteru jsou dva uzly (rh1 a rh2). rh1 je nefunkční a aktuálně je aktivním uzlem rh2.

Také, jak vidíte níže, na rh2, souborový systém a ip-adresa přešly z rh1 bez problémů.

[root@rh2 ~]# df -h /var/www
Filesystem                    Size  Used Avail Use% Mounted on
/dev/mapper/cluster_vg-vol01  993M   18M  925M   2% /var/www

[root@rh2 ~]# ip addr show
1: lo: <LOOPBACK,UP,LOWER_UP> mtu 16436 qdisc noqueue state UNKNOWN
    link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00
    inet 127.0.0.1/8 scope host lo
    inet6 ::1/128 scope host
       valid_lft forever preferred_lft forever
2: eth0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc pfifo_fast state UP ql                        en 1000
    link/ether 08:00:27:e6:6d:b7 brd ff:ff:ff:ff:ff:ff
    inet 192.168.1.11/24 brd 192.168.1.255 scope global eth0
    inet 192.168.1.12/24 scope global secondary eth0
    inet6 fe80::a00:27ff:fee6:6db7/64 scope link tentative dadfailed
       valid_lft forever preferred_lft forever

6. Plně funkční ukázkový soubor cluster.conf

Následuje konečný pracovní konfigurační soubor cluster.conf pro 2uzlový cluster redhat.

[root@rh1 ~]# cat /etc/cluster/cluster.conf
<?xml version="1.0"?>
<cluster config_version="28" name="mycluster">
  <fence_daemon post_join_delay="25"/>
  <clusternodes>
    <clusternode name="rh1" nodeid="1">
      <fence>
        <method name="mthd1">
          <device name="myfence"/>
        </method>
      </fence>
    </clusternode>
    <clusternode name="rh2" nodeid="2">
      <fence>
        <method name="mthd1">
          <device name="myfence"/>
        </method>
      </fence>
    </clusternode>
  </clusternodes>
  <cman expected_votes="1" two_node="1"/>
  <fencedevices>
    <fencedevice agent="fence_virt" name="myfence"/>
  </fencedevices>
  <rm>
    <failoverdomains>
      <failoverdomain name="webserverdomain" nofailback="0" ordered="1" restricted="0">
        <failoverdomainnode name="rh1"/>
        <failoverdomainnode name="rh2"/>
      </failoverdomain>
    </failoverdomains>
    <resources>
      <fs device="/dev/cluster_vg/vol01" fstype="ext4" mountpoint="/var/www" name="web_fs"/>
    </resources>
    <service autostart="1" domain="webserverdomain" name="webservice1" recovery="relocate">
      <fs ref="web_fs"/>
      <ip address="192.168.1.12" monitor_link="yes" sleeptime="10"/>
    </service>
  </rm>
</cluster>

Linux
  1. Jak spustit příkaz Linux na pozadí a odpojit proces v terminálu

  2. Jak nakonfigurovat převzetí služeb při selhání a vysokokapacitní síťové vazby v systému Linux

  3. Jak nastavit časové pásmo a synchronizovat čas serveru s NTP v Linuxu

  1. Jak zobrazit další informace o balíčku pomocí yum a yumdb – RedHat Linux

  2. Jak nainstalovat, spravovat, spustit a automaticky spustit službu ssh na RHEL 7 Linux

  3. Jak koupit název domény a spustit web

  1. Jak nainstalovat a nakonfigurovat MariaDB Galera Cluster na Ubuntu 18.04

  2. Jak spustit a zastavit OSWatcher

  3. Jak nainstaluji a spustím Traceroute na Ubuntu