Sun Cluster Handbuch Softwareinstallation für Solaris OS

Beispiel für das Konfigurieren von Geräte- und Ressourcengruppen

In diesem Kapitel wird beschrieben, wie Plattengeräte- und Ressourcengruppen für eine NFS-Anwendung konfiguriert werden. In der folgenden Tabelle werden die Namen der Gruppen und Ressourcen genannt, die für die Beispielkonfiguration erstellt wurden.

Tabelle 6–2 Übersicht über die Gruppen und Ressourcen der Beispielkonfiguration

Gruppe oder Ressource 

Name 

Beschreibung 

Plattengerätegruppe 

Gerätegruppe

Die Plattengerätegruppe. 

Replikations-Ressourcengruppe und Ressourcen 

Gerätegruppe-stor-rg

Die Replikations-Ressourcengruppe. 

lHost-RepRG-Prim, lHost-RepRG-Sek

Die logischen Hostnamen für die Replikations-Ressourcengruppe auf dem primären und dem sekundären Cluster. 

Gerätegruppenspeicher

Die HAStoragePlus-Ressource für die Replikations-Ressourcengruppe.  

Anwendungs-Ressourcengruppe und Ressourcen 

NFS-RG

Die Anwendungs-Ressourcengruppe. 

lHost-NFSRG-Prim, lHost-NFSRG-Sek

Die logischen Hostnamen für die Anwendungs-Ressourcengruppe auf dem primären und dem sekundären Cluster. 

NFS-GG-RS

Die HAStoragePlus-Ressource für die Anwendung. 

NFS-RS

Die NFS-Ressource. 

Mit Ausnahme von Gerätegruppe-stor-rg handelt es sich bei den Gruppen- und Ressourcennamen um Beispielnamen, die nach Bedarf geändert werden können. Die Replikations-Ressourcengruppe muss einen Namen wie Gerätegruppe-stor-rg aufweisen.

Konfigurieren von Plattengerätegruppen

In diesem Abschnitt wird das Konfigurieren einer Plattengerätegruppe auf dem primären und dem sekundären Cluster beschrieben. In dieser Beispielkonfiguration wird die VxVM-Software verwendet. Informationen zur Solstice DiskSuite oder Solaris Volume Manager-Software finden Sie unter Kapitel 3, Installieren und Konfigurieren der Software Solstice DiskSuite oder Solaris Volume Manager.

Die folgende Abbildung zeigt die in der Plattengerätegruppe erstellten Datenträger.

Abbildung 6–8 Datenträger für die Plattengerätegruppe

Die Abbildung zeigt die in der Plattengerätegruppe erstellten Datenträger.


Hinweis –

Die in diesem Abschnitt definierten Datenträger müssen keine privaten Bereiche für die Festplattenbezeichnung aufweisen, wie zum Beispiel Zylinder 0. Diese Einschränkung wird automatisch von der VxVM-Software verwaltet.


So konfigurieren Sie eine Plattengerätegruppe auf dem primären Cluster
  1. Erstellen Sie eine Plattengruppe mit vier Datenträgern (Datenträger 1 bis Datenträger 4).

    Informationen zum Konfigurieren einer Plattengruppe mithilfe der VxVM-Software finden Sie unter Kapitel 4, SPARC: Installieren und Konfigurieren von VERITAS Volume Manager.

  2. Greifen Sie als Superbenutzer auf nodeA zu.

    nodeA ist der erste Knoten des primären Clusters. In Abbildung 6–7 können Sie sich nochmals den Knoten in Erinnerung rufen, um den es sich bei nodeA handelt.

  3. Konfigurieren Sie die Plattengruppe, um eine Plattengerätegruppe zu erstellen.


    KnotenA# /usr/cluster/bin/scconf -a -D type=vxvm,name=Gerätegruppe \
    ,nodelist=KnotenA:KnotenB
    

    Die Plattengerätegruppe wird als Gerätegruppe bezeichnet.

  4. Starten Sie die Plattengerätegruppe.


    KnotenA# /usr/cluster/bin/scswitch -z -D Gerätegruppe -h KnotenA
    
  5. Synchronisieren Sie die Plattengerätegruppe mit der Sun Cluster-Software.


    KnotenA# /usr/cluster/bin/scconf -c -D name=Gerätegruppe,sync
    
  6. Erstellen Sie das Dateisystem für die Plattengerätegruppe.


    KnotenA# /usr/sbin/newfs /dev/vx/rdsk/Gerätegruppe/vol01 < /dev/null
    KnotenA# /usr/sbin/newfs /dev/vx/rdsk/Gerätegruppe/vol02 < /dev/null
    KnotenA# /usr/sbin/newfs /dev/vx/rdsk/Gerätegruppe/vol03 < /dev/null
    KnotenA# /usr/sbin/newfs /dev/vx/rdsk/Gerätegruppe/vol04 < /dev/null
    
  7. Aktivieren Sie den Remote-Zugriff zwischen den Knoten im primären und sekundären Cluster, indem Sie der /.rhosts-Datei auf dem nodeA und nodeB folgende Entitäten hinzufügen.


    nodeC +
    + root
So konfigurieren Sie eine Plattengerätegruppe im sekundären Cluster
  1. Führen Sie das Verfahren in So konfigurieren Sie eine Plattengerätegruppe auf dem primären Cluster mit folgenden Ausnahmen aus:

    • Ersetzen Sie nodeA durch nodeC.

    • Verwenden Sie nicht nodeB.

    • Nehmen Sie in Schritt 3 nodeC nur in die Knotenliste auf. Beispiel:


      KnotenC# /usr/cluster/bin/scconf -a -D type=vxvm,name=Gerätegruppe \
      ,nodelist=KnotenC
      
    • Fügen Sie in Schritt 7 der /.rhosts-Datei nur auf nodeC die folgenden Entitäten hinzu:


      nodeA +
      nodeB +
      + root

Konfigurieren der Dateisysteme für die NFS-Anwendung

In diesem Abschnitt wird beschrieben, wie die Dateisysteme für die NFS-Anwendung konfiguriert wurden.

So konfigurieren Sie das Dateisystem im primären Cluster für die NFS-Anwendung
  1. Erstellen Sie auf nodeA und nodeB ein Einhängepunktverzeichnis für das NFS-Dateisystem.

    Beispiel:


    KnotenA# mkdir /global/Einhängepunkt
    
  2. Konfigurieren Sie auf nodeA und nodeB den Master-Datenträger so, dass er automatisch im Einhängepunkt eingehängt wird.

    Fügen Sie der /etc/vfstab-Datei auf nodeA und nodeB folgenden Text hinzu bzw. ersetzen Sie den Text. Der Text darf eine Zeile nicht überschreiten.


    /dev/vx/dsk/Gerätegruppe/vol01 /dev/vx/rdsk/Gerätegruppe/vol01 \
    /global/Einhängepunkt ufs 3 no global,logging

    In Abbildung 6–8 können Sie die Namen und Nummern der Datenträger in der Plattengerätegruppe nachschlagen.

  3. Erstellen Sie auf nodeA einen Datenträger für die Dateisysteminformationen, die von der Sun StorEdge Availability Suite-Software verwendet werden.


    KnotenA# /usr/sbin/vxassist -g Gerätegruppe make vol05 120m Platte1
    

    Datenträger 5 enthält die Dateisysteminformationen, die von der Sun StorEdge Availability Suite-Software verwendet werden.

  4. Synchronisieren Sie die Gerätegruppe mit der Sun Cluster-Software erneut auf nodeA.


    KnotenA# /usr/cluster/bin/scconf -c -D name=Gerätegruppe,sync
    
  5. Erstellen Sie auf nodeA das Dateisystem für Datenträger 5.


    KnotenA# /usr/sbin/newfs /dev/vx/rdsk/Gerätegruppe/vol05
    
  6. Erstellen Sie auf nodeA und nodeB einen Einhängepunkt für Datenträger 5.

    Beispiel:


    KnotenA# mkdir /global/etc
    
  7. Konfigurieren Sie auf nodeA und nodeB Datenträger 5 so, dass er automatisch im Einhängepunkt eingehängt wird.

    Fügen Sie der /etc/vfstab-Datei auf nodeA und nodeB folgenden Text hinzu bzw. ersetzen Sie den Text. Der Text darf eine Zeile nicht überschreiten.


    /dev/vx/dsk/Gerätegruppe/vol05 /dev/vx/rdsk/Gerätegruppe/vol05 \
    /global/etc ufs 3 yes global,logging
  8. Hängen Sie den Datenträger 5 im nodeA ein.


    KnotenA# mount /global/etc
    
  9. Machen Sie den Datenträger 5 für Remote-Systeme zugänglich.

    1. Erstellen Sie das Verzeichnis /global/etc/SUNW.nfs auf nodeA.


      KnotenA# mkdir -p /global/etc/SUNW.nfs
      
    2. Erstellen Sie die Datei /global/etc/SUNW.nfs/dfstab.nfs-rs auf nodeA.


      KnotenA# touch /global/etc/SUNW.nfs/dfstab.nfs-rs
      
    3. Fügen Sie der Datei /global/etc/SUNW.nfs/dfstab.nfs-rs auf nodeA folgende Zeile hinzu:


      share -F nfs -o rw -d "HA NFS" /global/Einhängepunkt
      
So konfigurieren Sie das Dateisystem im sekundären Cluster für die NFS-Anwendung

    Wiederholen Sie das Verfahren in So konfigurieren Sie das Dateisystem im primären Cluster für die NFS-Anwendung mit folgenden Ausnahmen:

    • Ersetzen Sie nodeA durch nodeC.

    • Verwenden Sie nicht nodeB.

Erstellen von Replikations-Ressourcengruppen

In diesem Abschnitt wird das Erstellen einer Replikations-Ressourcengruppe auf dem primären und dem sekundären Cluster beschrieben.

So erstellen Sie eine Replikations-Ressourcengruppe auf dem primären Cluster
  1. Greifen Sie als Superbenutzer auf nodeA zu.

  2. Registrieren Sie SUNW.HAStoragePlus als Ressourcentyp.


    KnotenA# /usr/cluster/bin/scrgadm -a -t SUNW.HAStoragePlus
    
  3. Erstellen Sie eine Replikations-Ressourcengruppe für die Plattengerätegruppe.


    KnotenA# /usr/cluster/bin/scrgadm -a -g Gerätegruppe-stor-rg -h KnotenA,KnotenB
    
    Gerätegruppe

    Der Name der Plattengerätegruppe.

    Gerätegruppe-stor-rg

    Der Name der Replikations-Ressourcengruppe.

    -h KnotenA, KnotenB

    Gibt die Cluster-Knoten an, die die Replikations-Ressourcengruppe unterstützen können.

  4. Fügen Sie der Replikations-Ressourcengruppe eine SUNW.HAStoragePlus-Ressource hinzu.


    KnotenA# /usr/cluster/bin/scrgadm -a -j Gerätegruppenspeicher \
    -g Gerätegruppe-stor-rg -t SUNW.HAStoragePlus \
    -x GlobalDevicePaths=Gerätegruppe \
    -x AffinityOn=True
    
    Gerätegruppenspeicher

    Die HAStoragePlus-Ressource für die Replikations-Ressourcengruppe.

    -x GlobalDevicePaths=

    Gibt die Erweiterungseigenschaft an, auf der die Sun StorEdge Availability Suite-Software basiert.

    -x AffinityOn=True

    Gibt an, dass die SUNW.HAStoragePlus-Ressource ein Affinitäts-Switchover für die von -x GlobalDevicePaths= definierten globalen Geräte und Cluster-Dateisysteme durchführen muss. Daher wird bei einem Failover oder Switchover der Replikations-Ressourcengruppe ein Switchover für die Gerätegruppe durchgeführt.

    Weitere Informationen zu diesen Erweiterungseigenschaften finden Sie in der Online-Dokumentation unter SUNW.HAStoragePlus(5).

  5. Fügen Sie der Replikations-Ressourcengruppe eine Ressource logischer Hostname hinzu.


    KnotenA# /usr/cluster/bin/scrgadm -a -L \
    -j lHost-RepRG-Prim -g Gerätegruppe-stor-rg -l lHost-RepRG-Prim
    

    lhost-reprg-prim ist hierbei der logische Hostname für die Replikations-Ressourcengruppe im primären Cluster.

  6. Aktivieren Sie die Ressourcen, verwalten Sie die Ressourcengruppe, und bringen Sie die Ressourcengruppe online.


    KnotenA# /usr/cluster/bin/scswitch -Z -g Gerätegruppe-stor-rg
    KnotenA# /usr/cluster/bin/scswitch -z -g Gerätegruppe-stor-rg -h KnotenA
    
  7. Überprüfen Sie, ob die Ressourcengruppe online ist.


    KnotenA# /usr/cluster/bin/scstat -g
    

    Prüfen Sie das Statusfeld der Ressourcengruppe, um zu bestätigen, dass die Replikations-Ressourcengruppe für nodeA und nodeB online ist.

So erstellen Sie eine Replikations-Ressourcengruppe im sekundären Cluster

    Wiederholen Sie das Verfahren in So erstellen Sie eine Replikations-Ressourcengruppe auf dem primären Cluster mit folgenden Ausnahmen:

    • Ersetzen Sie nodeA durch nodeC.

    • Verwenden Sie nicht nodeB.

    • Ersetzen Sie Verweise auf lhost-reprg-prim durch lhost-reprg-sec.

Erstellen von Anwendungs-Ressourcengruppen

In diesem Abschnitt wird das Erstellen der Anwendungs-Ressourcengruppen für eine NFS-Anwendung beschrieben. Die in diesem Abschnitt vorgestellten Verfahren sind anwendungsspezifisch. Die Verfahren können nicht für einen anderen Anwendungstyp verwendet werden.

So erstellen Sie eine Anwendungs-Ressourcengruppe im primären Cluster
  1. Greifen Sie als Superbenutzer auf nodeA zu.

  2. Registrieren Sie SUNW.nfs als Ressourcentyp.


    KnotenA# scrgadm -a -t SUNW.nfs
    
  3. Sollte SUNW.HAStoragePlus noch nicht als Ressourcentyp registriert sein, führen Sie die Registrierung jetzt aus.


    KnotenA# scrgadm -a -t SUNW.HAStoragePlus
    
  4. Erstellen Sie eine Anwendungs-Ressourcengruppe für Gerätegruppe.


    KnotenA# scrgadm -a -g nfs-rg \
    -y Pathprefix=/global/etc \
    -y Auto_start_on_new_cluster=False \
    -y RG_dependencies=Gerätegruppe-stor-rg
    
    nfs-rg

    Der Name der Anwendungs-Ressourcengruppe.

    Pathprefix=/global/etc

    Gibt ein Verzeichnis an, in das die Ressourcen in der Gruppe Verwaltungsdateien schreiben können.

    Auto_start_on_new_cluster=False

    Gibt an, dass die Anwendungs-Ressourcengruppe nicht automatisch gestartet wird.

    RG_dependencies=Gerätegruppe-stor-rg

    Gibt die Ressourcengruppen an, von denen die Anwendungs-Ressourcengruppe abhängt. In diesem Beispiel hängt die Anwendungs-Ressourcengruppe von der Replikations-Ressourcengruppe ab.

    Wenn die Anwendungs-Ressourcengruppe auf den neuen Primärknoten umgeschaltet wird, wird die Replikations-Ressourcengruppe automatisch umgeschaltet. Wenn jedoch die Replikations-Ressourcengruppe auf den neuen Primärknoten umgeschaltet wird, muss die Anwendungs-Ressourcengruppe manuell umgeschaltet werden.

  5. Fügen Sie der Anwendungs-Ressourcengruppe eine SUNW.HAStoragePlus-Ressource hinzu.


    KnotenA# scrgadm -a -j NFS-GG-RS -g NFS-RG \
    -t SUNW.HAStoragePlus \
    -x FileSystemMountPoints=/global/Einhängepunkt \
    -x AffinityOn=True
    
    NFS-GG-RS

    Der Name der HAStoragePlus-Ressource für die NFS-Anwendung.

    -x FileSystemMountPoints=/global/

    Gibt an, dass der Einhängepunkt für das Dateisystem global ist.

    -t SUNW.HAStoragePlus

    Gibt an, dass die Ressource vom Typ SUNW.HAStoragePlus ist.

    -x AffinityOn=True

    Gibt an, dass die Anwendungsressource für die von -x GlobalDevicePaths= definierten globalen Geräte und Cluster-Dateisysteme ein Affinitäts-Switchover durchführen muss. Daher wird bei einem Failover oder Switchover der Ressourcengruppe für die zugehörige Gerätegruppe ein Switchover ausgeführt.

    Weitere Informationen zu diesen Erweiterungseigenschaften finden Sie in der Online-Dokumentation unter SUNW.HAStoragePlus(5).

  6. Fügen Sie der Anwendungs-Ressourcengruppe eine Ressource logischer Hostname hinzu.


    KnotenA# /usr/cluster/bin/scrgadm -a -L -j lHost-NFSRG-Prim -g NFS-RG \
    -l  lHost-NFSRG-Prim
    

    lHost-NFSRG-Prim ist hierbei der logische Hostname der Anwendungs-Ressourcengruppe im primären Cluster.

  7. Aktivieren Sie die Ressourcen, verwalten Sie die Anwendungs-Ressourcengruppe, und bringen Sie die Anwendungs-Ressourcengruppe online.

    1. Bringen Sie die HAStoragePlus-Ressource für die NFS-Anwendung online.


      KnotenA# /usr/cluster/bin/scrgadm -a -g NFS-RG \
      -j NFS-RS -t SUNW.nfs -y Resource_dependencies=NFS-GG-RS
      
    2. Bringen Sie die Anwendungs-Ressourcengruppe auf nodeA online.


      KnotenA# /usr/cluster/bin/scswitch -Z -g NFS-RG
      KnotenA# /usr/cluster/bin/scswitch -z -g NFS-RG -h KnotenA
      
  8. Überprüfen Sie, ob die Anwendungs-Ressourcengruppe online ist.


    KnotenA# /usr/cluster/bin/scstat -g
    

    Prüfen Sie das Statusfeld der Ressourcengruppe, um zu ermitteln, ob die Anwendungs-Ressourcengruppe für nodeA und nodeB online ist.

So erstellen Sie eine Anwendungs-Ressourcengruppe im sekundären Cluster
  1. Erstellen Sie die Anwendungs-Ressourcengruppe gemäß Schritt 1 bis Schritt 6 von So erstellen Sie eine Anwendungs-Ressourcengruppe im primären Cluster mit folgenden Ausnahmen:

    • Ersetzen Sie nodeA durch nodeC.

    • Ignorieren Sie die Verweise auf nodeB.

    • Ersetzen Sie die Verweise auf lHost-NFSRG-Prim durch lHost-NFSRG-Sek.

  2. Stellen Sie sicher, dass die Anwendungs-Ressourcengruppe nicht auf nodeC online gebracht wird.


    KnotenC# /usr/cluster/bin/scswitch -n -j NFS-RS
    KnotenC# /usr/cluster/bin/scswitch -n -j NFS-GG-RS
    KnotenC# /usr/cluster/bin/scswitch -n -j lHost-NFSRG-Sek
    KnotenC# /usr/cluster/bin/scswitch -z -g NFS-RG -h ""
    

    Die Ressourcengruppe bleibt nach dem Neubooten offline, weil Auto_start_on_new_cluster=False.

  3. Wenn der globale Datenträger im primären Cluster eingehängt ist, hängen Sie ihn aus dem sekundären Cluster aus.


    KnotenC# umount /global/Einhängepunkt
    

    Wenn der Datenträger im sekundären Cluster eingehängt ist, schlägt die Synchronisierung fehl.