Sun Cluster Handbuch Softwareinstallation für Solaris OS

So fügen Sie Cluster-Dateisysteme hinzu

Führen Sie dieses Verfahren für jedes Cluster-Dateisystem aus, das Sie hinzufügen. Auf ein Cluster-Dateisystem kann von allen Cluster-Knoten zugegriffen werden.


Achtung – Achtung –

Alle Daten auf den Platten werden zerstört, wenn Sie ein Dateisystem erstellen. Vergewissern Sie sich, den korrekten Plattengerätenamen anzugeben. Wenn Sie einen falschen Gerätenamen angeben, löschen Sie Daten, die Sie möglicherweise nicht löschen möchten.


Wenn Sie SunPlex Manager zum Installieren der Datendienste verwenden, kann SunPlex Manager bereits ein oder mehrere Cluster-Dateisysteme erstellt haben.

  1. Stellen Sie sicher, dass die Datenträger-Manager-Software installiert und konfiguriert ist.

    Verfahren für die Datenträger-Manager-Installation finden Sie unter Installieren und Konfigurieren der Software Solstice DiskSuite/Solaris Volume Manager oder SPARC: Installieren und Konfigurieren der Software VxVM.

  2. Melden Sie sich bei einem Cluster-Knoten als Superbenutzer an.


    Tipp –

    Um die Dateisystemerstellung zu beschleunigen, melden Sie sich als Superbenutzer beim aktuellen Primärknoten des globalen Geräts an, für das Sie ein Dateisystem erstellen.


  3. Erstellen Sie ein Dateisystem.

    • Für ein UFS-Dateisystem verwenden Sie den Befehl newfs(1M).


      # newfs Im raw-Modus betriebenes Plattengerät
      

    • SPARC: Für ein VxFS-Dateisystem befolgen Sie die Verfahren, die in der VxFS-Dokumentation behandelt werden.

    Folgende Tabelle zeigt Beispiele für Namen des Arguments Im raw-Modus betriebenes Plattengerät. Beachten Sie, dass die Benennungskonventionen bei jedem Datenträger-Manager unterschiedlich sind.

    Datenträger-Manager 

    Beispiel für Plattengerätenamen 

    Beschreibung 

    Solstice DiskSuite oder Solaris Volume Manager 

    /dev/md/nfs/rdsk/d1

    Im raw-Modus betriebenes Plattengerät d1 im nfs-Plattensatz

    SPARC: VERITAS Volume Manager 

    /dev/vx/rdsk/oradg/vol01

    Im raw-Modus betriebenes Plattengerät vol01 in der oradg-Plattengruppe

    Keine 

    /dev/global/rdsk/d1s3

    Im raw-Modus betriebenes Plattengerät d1s3

  4. Erstellen Sie auf jedem Knoten im Cluster ein Einhängepunktverzeichnis für das Cluster-Dateisystem.

    Ein Einhängepunkt ist auf jedem Knoten erforderlich, auch wenn von einem Knoten auf das Cluster-Dateisystem nicht zugegriffen wird.


    Tipp –

    Erstellen Sie zur einfacheren Verwaltung den Einhängepunkt im Verzeichnis /global/Gerätegruppe. Dieser Speicherort ermöglicht Ihnen, global verfügbare Cluster-Dateisysteme von lokalen Dateisystemen einfach zu unterscheiden.



    # mkdir -p /global/Gerätegruppe/Einhängepunkt
    
    Gerätegruppe

    Name des Verzeichnisses, das dem Namen der Gerätegruppe entspricht, die das Gerät enthält

    Einhängepunkt

    Name des Verzeichnisses, in dem das Cluster-Dateisystem eingehängt werden soll

  5. Fügen Sie der /etc/vfstab-Datei auf jedem Cluster-Knoten einen Eintrag fur den Einhängepunkt hinzu.

    Einzelheiten finden Sie in der Online-Dokumentation unter vfstab(4).

    1. Geben Sie in jedem Eintrag die für jeden verwendeten Dateisystemtyp erforderlichen Einhängeoptionen an. Die Liste erforderlicher Einhängeoptionen finden Sie in Tabelle 2–11 oder Tabelle 2–12.


      Hinweis –

      Protokollierung ist für alle Cluster-Dateisysteme erforderlich. Verwenden Sie jedoch nicht die logging-Einhängeoption für Transaktions-Metageräte von Solstice DiskSuite oder Transaktions-Datenträger von Solaris Volume Manager. Transaktions-Metageräte und Transaktions-Datenträger stellen ihre eigene Protokollierung bereit.

      Daneben ist geplant, Es ist geplant, Solaris Volume Manager transactional-volume logging (früher Solstice DiskSuite trans-metadevice logging) bei einer kommenden Solaris-Version aus der Solaris-Betriebsumgebung zu entfernen. Solaris UFS logging bietet dieselben Funktionen, aber höhere Leistung bei geringeren Systemverwaltungsanforderungen und -aufwand.


      Tabelle 2–11 Einhängeoptionen für UFS-Cluster-Dateisysteme

      Einhängeoption 

      Beschreibung 

      global

      Erforderlich. Mit dieser Option wird das Dateisystem für alle Knoten im Cluster sichtbar.

      logging

      Erforderlich. Diese Option aktiviert die Protokollierung.

      forcedirectio

      Erforderlich für Cluster-Dateisysteme, die Oracle Parallel Server/Real Application Clusters-RDBMS-Datendateien, Protokolldateien und Steuerdateien hosten.


      Hinweis –

      Oracle Parallel Server/Real Application Clusters wird nur in SPARC-basierten Clustern unterstützt.


      syncdir

      Optional. Wenn Sie syncdir angeben, ist beim Systemaufruf write() ein POSIX-kompatibles Dateisystem-Verhalten gewährleistet. Wenn ein Aufruf write() erfolgt, stellt diese Einhängeoption sicher, dass ausreichend Speicherplatz auf der Platte vorhanden ist.

      Wenn Sie syncdir nicht angeben, erfolgt dasselbe Verhalten wie bei UFS-Dateisystemen. Wenn Sie syncdir nicht angeben, kann sich die Leistung der Schreibvorgänge mit Zuweisung von Plattenblöcken, wie beim Anhängen von Daten an eine Datei, deutlich verbessern. In manchen Fällen bemerken Sie jedoch ohne syncdir die Bedingung von nicht ausreichendem Speicherplatz (ENOSPC) erst beim Schließen einer Datei.

      ENOSPC wird beim Schließen nur sehr kurz nach einem Failover angezeigt. Mit syncdir und POSIX-Verhalten wird die Bedingung von nicht ausreichendem Speicherplatz vor dem Schließen bemerkt.


      Hinweis –

      Verwenden Sie nicht die Einhängeoptionen onerror=umount und onerror=lock. Diese Einhängeoptionen werden aus folgenden Gründen nicht in Cluster-Dateisystemen unterstützt:

      • Die Verwendung der Einhängeoption onerror=umount oder onerror=lock kann dazu führen, dass das Cluster-Dateisystem gesperrt wird bzw. dass kein Zugriff mehr möglich ist. Dies kann im Falle von Dateifehlern im Cluster-Dateisystem auftreten.

      • Die Einhängeoption onerror=umount oder onerror=lock kann dazu führen, dass das Cluster-Dateisystem nicht eingehängt werden kann. Dies kann wiederum dazu führen, dass Anwendungen im Cluster-Dateisystem hängen oder dass Anwendungen nicht beendet werden können.

      Möglicherweise muss ein Knoten neu gebootet werden, um von diesen Zuständen wiederhergestellt zu werden.

      Nur die Einhängeoption onerror=panic wird von der Sun Cluster-Software unterstützt. Sie müssen die Einhängeoption onerror=panic in der /etc/vfstab-Datei nicht angeben. Diese Einhängeoption ist bereits der Standardwert, wenn keine andere onerror-Einhängeoption angegeben wird.


      Weitere Informationen zu UFS-Einhängeoptionen finden Sie in der Online-Dokumentation unter mount_ufs(1M).

      Tabelle 2–12 SPARC: Einhängeoptionen für VxFS-Cluster-Dateisysteme

      Einhängeoption 

      Beschreibung 

      global

      Erforderlich. Mit dieser Option wird das Dateisystem für alle Knoten im Cluster sichtbar.

      log

      Erforderlich. Diese Option aktiviert die Protokollierung.

      Weitere Informationen zu VxFS-Einhängeoptionen finden Sie in der Online-Dokumentation unter VxFS mount_vxfs und “Administering Cluster File Systems Overview” in Sun Cluster System Administration Guide for Solaris OS.

    2. Um das Cluster-Dateisystem automatisch einzuhängen, stellen Sie das Feld mount at boot auf yes ein.

    3. Stellen Sie sicher, dass die Informationen für jedes Cluster-Dateisystem auf jedem Knoten im jeweiligen Eintrag /etc/vfstab identisch sind.

    4. Stellen Sie sicher, dass die Einträge in der Datei /etc/vfstab auf jedem Knoten die Geräte in derselben Reihenfolge auflisten.

    5. Prüfen Sie die Abhängigkeiten der Dateisysteme bei der Boot-Reihenfolge.

      Betrachten Sie zum Beispiel das Szenario, in dem phys-schost-1 das Plattengerät d0 in /global/oracle und phys-schost-2 das Plattengerät d1 in /global/oracle/logs einhängen. Bei dieser Konfiguration kann phys-schost-2 nur booten und /global/oracle/logs einhängen, nachdem phys-schost-1 gebootet und /global/oracle eingehängt hat.

  6. Führen Sie auf einem beliebigen Cluster-Knoten das Dienstprogramm sccheck(1M) aus.

    Das sccheck-Dienstprogramm überprüft das Vorhandensein von Einhängepunkten. Das Dienstprogramm überprüft auch, dass auf allen Knoten des Clusters die Einträge in der Datei /etc/vfstab korrekt sind.


     # sccheck
    

    Wenn keine Fehler auftreten, wird nichts zurückgegeben.

  7. Hängen Sie das Cluster-Dateisystem ein.


    # mount /global/Gerätegruppe/Einhängepunkt
    

    • Hängen Sie für UFS das Cluster-Dateisystem von einem beliebigen Cluster-Knoten ein.

    • SPARC: Hängen Sie für VERITAS File System (VxFS) das Cluster-Dateisystem vom aktuellen Master der Gerätegruppe ein, um sicherzustellen, dass das Dateisystem erfolgreich eingehängt wird. Hängen Sie daneben ein VxFS-Dateisystem vom aktuellen Master der Gerätegruppe aus, um sicherzustellen, dass das Dateisystem erfolgreich ausgehängt wird.


      Hinweis –

      Zum Verwalten eines VxFS-Cluster-Dateisystems in einer Sun Cluster-Umgebung führen Sie die Verwaltungsbefehle nur von dem Primärknoten aus, in dem das VxFS-Cluster-Dateisystem eingehängt ist.


  8. Überprüfen Sie auf jedem Knoten des Clusters, dass das Cluster-Dateisystem eingehängt ist.

    Sie können den Befehl df(1M) oder mount(1M) zum Auflisten eingehängter Dateisysteme verwenden.

  9. Konfigurieren von IP Network Multipathing-Gruppen.

    Gehen Sie zu So konfigurieren Sie Internet Protocol (IP) Network Multipathing-Gruppen.

Beispiel – Erstellen eines Cluster-Dateisystems

Das folgende Beispiel erstellt ein UFS-Cluster-Dateisystem auf dem Solstice DiskSuite-Metagerät /dev/md/oracle/rdsk/d1.


# newfs /dev/md/oracle/rdsk/d1
…
 
(auf jedem Knoten)
# mkdir -p /global/oracle/d1
# vi /etc/vfstab
#device           device        mount   FS      fsck    mount   mount
#to mount         to fsck       point   type   ; pass    at boot options
#
/dev/md/oracle/dsk/d1 /dev/md/oracle/rdsk/d1 /global/oracle/d1 ufs 2 yes global,logging
(Speichern und Beenden)
 
(auf einem Knoten)
# sccheck
# mount /global/oracle/d1
# mount
…
/global/oracle/d1 on /dev/md/oracle/dsk/d1 read/write/setuid/global/logging/largefiles
on Sun Oct 3 08:56:16 2000