Sun Cluster Handbuch Softwareinstallation für Solaris OS

Kapitel 6 Erstellen von Cluster-Dateisystemen und nicht globalen Zonen

Dieses Kapitel enthält die folgenden Verfahren:

Erstellen von Cluster-Dateisystemen

Dieser Abschnitt enthält Verfahren zur Erstellung von Cluster-Dateisystemen für die Unterstützung von Datendiensten.

ProcedureSo erstellen Sie Cluster-Dateisysteme

Führen Sie dieses Verfahren für jedes Cluster-Dateisystem durch, das Sie erstellen möchten. Im Gegensatz zu einem lokalen Dateisystem, kann jeder Knoten im Cluster auf das Cluster-Dateisystem zugreifen.


Hinweis –

Alternativ dazu können Sie ein weitgehend verfügbares lokales Dateisystem zur Unterstützung eines Datendienstes verwenden. Informationen dazu, ob sich zur Unterstützung eines bestimmten Datendienstes ein Cluster-Dateisystem oder ein weitgehend verfügbares lokales Dateisystem besser eignet, finden Sie im Handbuch zum jeweiligen Datendienst. Allgemeine Informationen zur Erstellung eines weitgehend verfügbaren lokalen Dateisystems finden Sie unter Enabling Highly Available Local File Systems in Sun Cluster Data Services Planning and Administration Guide for Solaris OS .


Bevor Sie beginnen

Führen Sie folgende Aufgaben aus:

  1. Melden Sie sich bei einem Cluster-Knoten als Superuser an.

    Für Solaris müssen Sie das Verfahren von der globalen Zone ausgehend ausführen, wenn nicht globale Zonen im Cluster konfiguriert sind.


    Tipp –

    Um die Dateisystemerstellung zu beschleunigen, melden Sie sich als Superuser beim aktuellen Primärknoten des globalen Geräts an, für das Sie ein Dateisystem erstellen.


  2. Erstellen Sie ein Dateisystem.


    Caution – Caution –

    Alle Daten auf den Platten werden zerstört, wenn Sie ein Dateisystem erstellen. Stellen Sie sicher, dass Sie den korrekten Gerätenamen angeben. Wenn Sie einen falschen Gerätenamen angeben, löschen Sie Daten, die Sie möglicherweise nicht löschen möchten.


    • Für ein UFS-Dateisystem verwenden Sie den Befehl newfs(1M).


      phys-schost# newfs raw-disk-device
      

      Folgende Tabelle zeigt Beispiele für Namen des Arguments Im raw-Modus betriebenes Plattengerät. Beachten Sie, dass die Benennungskonventionen bei jedem Datenträger-Manager unterschiedlich sind.

      Datenträger-Manager 

      Beispiel für Plattengerätenamen 

      Beschreibung 

      Solaris Volume Manager 

      /dev/md/nfs/rdsk/d1

      Im raw-Modus betriebenes Plattengerät d1 im nfs Plattensatz

      VERITAS Volume Manager 

      /dev/vx/rdsk/oradg/vol01

      Im raw-Modus betriebenes Plattengerät vol01 in der oradg-Plattengruppe

      Ohne 

      /dev/global/rdsk/d1s3

      Im raw-Modus betriebenes Plattengerät d1s3

    • SPARC: Bei VERITAS File System (VxFS)-Dateisystemen befolgen Sie die Verfahren, die in der VxFS-Dokumentation behandelt werden.

  3. Erstellen Sie auf jedem Knoten im Cluster ein Einhängepunktverzeichnis für das Cluster-Dateisystem.

    Ein Einhängepunkt ist auf jedem Knoten erforderlich, auch wenn von einem Knoten auf das Cluster-Dateisystem nicht zugegriffen wird.


    Tipp –

    Erstellen Sie zu einfacheren Verwaltung den Einhängepunkt im Verzeichnis /global/device-group/. Dieser Speicherort ermöglicht Ihnen, global verfügbare Cluster-Dateisysteme von lokalen Dateisystemen einfach zu unterscheiden.



    phys-schost# mkdir -p /global/device-group/mountpoint/
    
    Gerätegruppe

    Name des Verzeichnisses, das dem Namen der Gerätegruppe entspricht, die das Gerät enthält.

    Einhängepunkt

    Name des Verzeichnisses, in dem das Cluster-Dateisystem eingehängt werden soll.

  4. Fügen Sie der /etc/vfstab-Datei auf jedem Knoten im Cluster einen Eintrag für den Einhängepunkt hinzu.

    Einzelheiten finden Sie in der Online-Dokumentation unter vfstab(4).


    Hinweis –

    Wenn im Cluster nicht globale Zonen konfiguriert wurden, achten Sie darauf, Cluster-Dateisysteme in der globalen Zone auf einem Pfad im Root-Verzeichnis der globalen Zone einhängen.


    1. Geben Sie in jedem Eintrag die Einhängeoptionen an, die für den verwendeten Dateisystem-Typ erforderlich sind.


      Hinweis –

      Verwenden Sie nicht die Einhängoption logging für Solaris Volume Manager-Transaktionsdatenträger. Transaktionsdatenträger sorgen selbst für eine Protokollierung.

      Daneben wird Solaris Volume Manager Transaktions-Datenträger-Protokollierung wurde vom Betriebssystem Solaris 10 entfernt. Solaris UFS-Protokollierung bietet dieselben Funktionen, aber höhere Leistung bei geringeren Systemverwaltungsanforderungen und -aufwand.


    2. Um das Cluster-Dateisystem automatisch einzuhängen, stellen Sie das Feld mount at boot auf yes ein.

    3. Stellen Sie sicher, dass die Informationen für jedes Cluster-Dateisystem auf jedem Knoten im jeweiligen Eintrag /etc/vfstab identisch sind.

    4. Stellen Sie sicher, dass die Einträge in der Datei /etc/vfstab auf jedem Knoten die Geräte in derselben Reihenfolge auflisten.

    5. Prüfen Sie die Abhängigkeiten der Dateisysteme bei der Boot-Reihenfolge.

      Beispielkonfiguration: phys-schost-1 hängt das Plattengerät d0 in /global/oracle/ ein und phys-schost-2 hängt das Plattengerät d1 in /global/oracle/logs/ ein. Bei dieser Konfiguration kann phys-schost-2 nur booten und /global/oracle/logs/ einhängen, nachdem phys-schost-1 gebootet und /global/oracle/ eingehängt hat.

  5. Führen Sie auf einem beliebigen Knoten im Cluster das Dienstprogramm für die Konfigurationsprüfung aus.


    phys-schost# sccheck
    

    Das Dienstprogramm für die Konfigurationsprüfung überprüft, ob der Einhängpunkt vorhanden ist. Das Dienstprogramm überprüft auch, dass auf allen Knoten des Clusters die Einträge in der Datei /etc/vfstab korrekt sind. Wenn keine Fehler auftreten, wird nichts zurückgegeben.

    Weitere Informationen finden Sie auf der Manpage sccheck(1M).

  6. Hängen Sie das Cluster-Dateisystem ein.


    phys-schost# mount /global/device-group/mountpoint/
    
    • Hängen Sie für UFS das Cluster-Dateisystem von einem beliebigen Cluster-Knoten ein.

    • SPARC: Hängen Sie für VxFS, das Cluster-Dateisystem vom aktuellen Master von device-group ein, um das erfolgreiche Einhängen des Dateisystems sicherzustellen.

      Hängen Sie außerdem ein VxFS-Dateisystem aus dem aktuellen Master von device-group aus, um das erfolgreiche Aushängen des Dateisystems sicherzustellen.


      Hinweis –

      Zum Verwalten eines VxFS-Cluster-Dateisystems in einer Sun Cluster-Umgebung führen Sie die Verwaltungsbefehle nur von dem Primärknoten aus, in dem das VxFS-Cluster-Dateisystem eingehängt ist.


  7. Überprüfen Sie auf jedem Knoten des Clusters, dass das Cluster-Dateisystem eingehängt ist.

    Sie können entweder den df- oder den mount-Befehl zum Auflisten der eingehängten Dateisysteme verwenden. Weitere Informationen finden Sie auf der Manpage df(1M) oder mount(1M).

    Unter Solaris 10 sind Cluster-Dateisysteme sowohl von der globalen als auch von der nicht globalen Zone aus zugänglich.


Beispiel 6–1 Erstellen eines Cluster-Dateisystems

Das folgende Beispiel erstellt ein UFS-Cluster-Dateisystem auf dem Solaris Volume Manager-Datenträger /dev/md/oracle/rdsk/d1. Der Datei vfstab auf allen Knoten wird ein Eintrag für das Cluster-Dateisystem hinzugefügt. Anschließend wird von einem Knoten aus der Befehl sccheck ausgeführt. Nachdem die Konfigurationsprüfung erfolgreich abgeschlossen wurde, wird das Cluster-Dateisystem von einem Konten ausgehend eingehängt und auf allen Knoten überprüft.


phys-schost# newfs /dev/md/oracle/rdsk/d1
…
phys-schost# mkdir -p /global/oracle/d1
phys-schost# vi /etc/vfstab
#device           device        mount   FS      fsck    mount   mount
#to mount         to fsck       point   type    pass    at boot options
#                     
/dev/md/oracle/dsk/d1 /dev/md/oracle/rdsk/d1 /global/oracle/d1 ufs 2 yes global,logging
…
phys-schost# sccheck
phys-schost# mount /global/oracle/d1
phys-schost# mount
…
/global/oracle/d1 on /dev/md/oracle/dsk/d1 read/write/setuid/global/logging/largefiles
on Sun Oct 3 08:56:16 2005

Nächste Schritte

Legen Sie anhand der folgenden Liste fest, welche auf Ihre Cluster-Konfiguration zutreffende Aufgabe als nächstes ausgeführt werden soll. Wenn Sie mehrere Aufgaben in der Liste durchführen müssen, gehen Sie zur ersten Aufgabe.

Konfigurieren einer nicht globalen Zone auf einem Cluster-Knoten

Dieser Abschnitt enthält Verfahren zur Erstellung einer nicht globalen Zone auf einem Cluster-Knoten.

ProcedureErstellen einer nicht globalen Zone auf einem Cluster-Knoten

Führen Sie dieses Verfahren für jede nicht globale Zone durch, die Sie im Cluster erstellen.


Hinweis –

Vollständige Informationen zum Installieren einer Zone finden Sie im System Administration Guide: Solaris Containers-Resource Management and Solaris Zones .


Sie können eine nicht globale Zone (vereinfacht Zone genannt) unter Solaris 10 auf einem Cluster-Knoten konfigurieren, während der Knoten im Cluster- oder im Nicht-Cluster-Modus gebootet wird.

Bevor Sie beginnen

Führen Sie folgende Aufgaben durch:

Zusätzliche Informationen finden Sie unter Zone Components in System Administration Guide: Solaris Containers-Resource Management and Solaris Zones .

  1. Werden Sie ein Superuser auf dem Knoten, auf dem Sie die nicht globale Zone erstellen.

    Sie müssen sich in der globalen Zone befinden.

  2. Überprüfen Sie unter Solaris 10 für jeden Knoten, ob die Dienste für mehrere Benutzer für die Service Management Facility (SMF) online geschaltet sind.

    Wenn die Dienste für einen Knoten noch nicht online sind, warten Sie, bis der Status "online" angezeigt wird, bevor Sie zum nächsten Schritt übergehen.


    phys-schost# svcs multi-user-server
    STATE          STIME    FMRI
    online         17:52:55 svc:/milestone/multi-user-server:default
  3. Konfigurieren, installieren und booten Sie die neue Zone.


    Hinweis –

    Sie müssen die Eigenschaft autoboot auf true setzen, damit die Ressourcengruppenfunktion in der nicht globalen Zone unterstützt wird.


    Befolgen Sie die Anweisungen in der folgenden Dokumentation:

    1. Führen Sie die in Kapitel 18, Planning and Configuring Non-Global Zones (Tasks) in System Administration Guide: Solaris Containers-Resource Management and Solaris Zones aufgeführten Verfahren durch.

    2. Führen Sie die unter Installing and Booting Zones in System Administration Guide: Solaris Containers-Resource Management and Solaris Zones aufgeführten Verfahren durch.

    3. Führen Sie die unter How to Boot a Zone in System Administration Guide: Solaris Containers-Resource Management and Solaris Zones aufgeführten Verfahren durch.

  4. Vergewissern Sie sich, dass sich die Zone im Status ready befindet.


    phys-schost# zoneadm list -v
    ID  NAME     STATUS       PATH
     0  global   running      /
     1  my-zone  ready        /zone-path
    
  5. (Optional) Weisen Sie der Zone eine private IP-Adresse und einen privaten Hostnamen zu.

    Mit dem folgenden Befehl wird eine verfügbare IP-Adresse aus dem privaten IP-Adressenbereich des Clusters ausgewählt und zugewiesen. Des Weiteren wird mit diesem Befehl der angegebene private Hostname bzw. Hostalias zur Zone zugewiesen und der zugewiesenen privaten IP-Adresse zugeordnet.


    phys-schost# clnode set -p zprivatehostname=hostalias node:zone
    
    -p

    Gibt eine Eigenschaft an.

    zprivatehostname=hostalias

    Gibt den privaten Hostnamen bzw. Hostalias der Zone an.

    node

    Der Name des Knotens.

    zone

    Der Name der nicht globalen Zone.

  6. Führen Sie die Erstkonfiguration der internen Zone durch.

    Führen Sie die unter Performing the Initial Internal Zone Configuration in System Administration Guide: Solaris Containers-Resource Management and Solaris Zones aufgeführten Verfahren durch. Wählen Sie eine der folgenden Methoden:

    • Melden Sie sich bei der Zone an

    • Verwenden Sie eine Datei /etc/sysidcfg

  7. Ändern Sie die Datei nsswitch.conf in der nicht globalen Zone.

    Diese Änderungen sind erforderlich, damit die Zone in der Lage ist, Suchen nach Cluster-spezifischen Hostnamen und IP-Adressen zu lösen.

    1. Melden Sie sich bei der Zone an.


      phys-schost# zogin -c zonename
      
    2. Öffnen Sie die Datei /etc/nsswitch.conf zur Bearbeitung.


      phys-schost# vi /etc/nsswitch.conf
      
    3. Fühen Sie den Cluster-Switch an den Anfang der Suchen nach den Host- und Netzmasken-Einträgen hinzu.

      Die geänderten Einträge werden ungefähr wie folgt angezeigt:


      …
      hosts:      cluster files nis [NOTFOUND=return]
      …
      netmasks:   cluster files nis [NOTFOUND=return]
      …
Nächste Schritte

Gehen Sie zum Installieren einer Anwendung in einer nicht globalen Zone genauso vor wie bei einem Standalone-System. Anweisungen zum Installieren der Software in einer nicht globalen Zone finden Sie in der Installationsdokumentation zu Ihrer Anwendung. Siehe auch Adding and Removing Packages and Patches on a Solaris System With Zones Installed (Task Map) in System Administration Guide: Solaris Containers-Resource Management and Solaris Zones .

Anweisungen zum Installieren und Konfigurieren eines Datendienstes in einer nicht globalen Zone finden Sie im Sun Cluster-Handbuch zu dem jeweiligen Datendienst.