Dieses Kapitel enthält die folgenden Verfahren:
Dieser Abschnitt enthält Verfahren zur Erstellung von Cluster-Dateisystemen für die Unterstützung von Datendiensten.
Führen Sie dieses Verfahren für jedes Cluster-Dateisystem durch, das Sie erstellen möchten. Im Gegensatz zu einem lokalen Dateisystem, kann jeder Knoten im Cluster auf das Cluster-Dateisystem zugreifen.
Alternativ dazu können Sie ein weitgehend verfügbares lokales Dateisystem zur Unterstützung eines Datendienstes verwenden. Informationen dazu, ob sich zur Unterstützung eines bestimmten Datendienstes ein Cluster-Dateisystem oder ein weitgehend verfügbares lokales Dateisystem besser eignet, finden Sie im Handbuch zum jeweiligen Datendienst. Allgemeine Informationen zur Erstellung eines weitgehend verfügbaren lokalen Dateisystems finden Sie unter Enabling Highly Available Local File Systems in Sun Cluster Data Services Planning and Administration Guide for Solaris OS .
Führen Sie folgende Aufgaben aus:
Vergewissern Sie sich, dass die Softwarepakete für das Solaris-Betriebssystem, Sun Cluster-Framework sowie weitere Produkte gemäß der Beschreibung unter Installieren der Software installiert wurden.
Vergewissern Sie sich, dass der neue Cluster bzw. Cluster-Knoten gemäß der Beschreibung unter Einrichten eines neuen Clusters oder Cluster-Knotens eingerichtet wurde.
Vergewissern Sie sich bei Verwendung eines Datenträger-Managers, dass die Datenträger-Verwaltungssoftware installiert und konfiguriert wurde. Die Verfahren zur Installation des Datenträger-Managers sind unter Konfigurieren der Solaris Volume Manager-Software oder Installieren und Konfigurieren der Software VxVM beschrieben.
Wenn Sie einen neuen Knoten zu einem Cluster hinzugefügt haben, der VxVM verwendet, müssen Sie eine der folgenden Aufgaben durchführen:
Installieren von VxVM auf diesem Knoten.
Bearbeiten der Datei /etc/name_to_major des Knotens, um die Koexistenz mit VxVM zu unterstützen.
Befolgen Sie die Anweisungen in So installieren Sie die VERITAS Volume Manager-Software zur Durchführung einer dieser erforderlichen Aufgaben.
Bestimmen Sie die Einhängeoptionen für jedes zu erstellende Cluster-Dateisystem. Siehe Auswahl von Einhängoptionen für Cluster-Dateisysteme
Melden Sie sich bei einem Cluster-Knoten als Superuser an.
Für Solaris müssen Sie das Verfahren von der globalen Zone ausgehend ausführen, wenn nicht globale Zonen im Cluster konfiguriert sind.
Um die Dateisystemerstellung zu beschleunigen, melden Sie sich als Superuser beim aktuellen Primärknoten des globalen Geräts an, für das Sie ein Dateisystem erstellen.
Erstellen Sie ein Dateisystem.
Alle Daten auf den Platten werden zerstört, wenn Sie ein Dateisystem erstellen. Stellen Sie sicher, dass Sie den korrekten Gerätenamen angeben. Wenn Sie einen falschen Gerätenamen angeben, löschen Sie Daten, die Sie möglicherweise nicht löschen möchten.
Für ein UFS-Dateisystem verwenden Sie den Befehl newfs(1M).
phys-schost# newfs raw-disk-device |
Folgende Tabelle zeigt Beispiele für Namen des Arguments Im raw-Modus betriebenes Plattengerät. Beachten Sie, dass die Benennungskonventionen bei jedem Datenträger-Manager unterschiedlich sind.
Datenträger-Manager |
Beispiel für Plattengerätenamen |
Beschreibung |
---|---|---|
Solaris Volume Manager |
/dev/md/nfs/rdsk/d1 |
Im raw-Modus betriebenes Plattengerät d1 im nfs Plattensatz |
VERITAS Volume Manager |
/dev/vx/rdsk/oradg/vol01 |
Im raw-Modus betriebenes Plattengerät vol01 in der oradg-Plattengruppe |
Ohne |
/dev/global/rdsk/d1s3 |
Im raw-Modus betriebenes Plattengerät d1s3 |
SPARC: Bei VERITAS File System (VxFS)-Dateisystemen befolgen Sie die Verfahren, die in der VxFS-Dokumentation behandelt werden.
Erstellen Sie auf jedem Knoten im Cluster ein Einhängepunktverzeichnis für das Cluster-Dateisystem.
Ein Einhängepunkt ist auf jedem Knoten erforderlich, auch wenn von einem Knoten auf das Cluster-Dateisystem nicht zugegriffen wird.
Erstellen Sie zu einfacheren Verwaltung den Einhängepunkt im Verzeichnis /global/device-group/. Dieser Speicherort ermöglicht Ihnen, global verfügbare Cluster-Dateisysteme von lokalen Dateisystemen einfach zu unterscheiden.
phys-schost# mkdir -p /global/device-group/mountpoint/ |
Name des Verzeichnisses, das dem Namen der Gerätegruppe entspricht, die das Gerät enthält.
Name des Verzeichnisses, in dem das Cluster-Dateisystem eingehängt werden soll.
Fügen Sie der /etc/vfstab-Datei auf jedem Knoten im Cluster einen Eintrag für den Einhängepunkt hinzu.
Einzelheiten finden Sie in der Online-Dokumentation unter vfstab(4).
Wenn im Cluster nicht globale Zonen konfiguriert wurden, achten Sie darauf, Cluster-Dateisysteme in der globalen Zone auf einem Pfad im Root-Verzeichnis der globalen Zone einhängen.
Geben Sie in jedem Eintrag die Einhängeoptionen an, die für den verwendeten Dateisystem-Typ erforderlich sind.
Verwenden Sie nicht die Einhängoption logging für Solaris Volume Manager-Transaktionsdatenträger. Transaktionsdatenträger sorgen selbst für eine Protokollierung.
Daneben wird Solaris Volume Manager Transaktions-Datenträger-Protokollierung wurde vom Betriebssystem Solaris 10 entfernt. Solaris UFS-Protokollierung bietet dieselben Funktionen, aber höhere Leistung bei geringeren Systemverwaltungsanforderungen und -aufwand.
Um das Cluster-Dateisystem automatisch einzuhängen, stellen Sie das Feld mount at boot auf yes ein.
Stellen Sie sicher, dass die Informationen für jedes Cluster-Dateisystem auf jedem Knoten im jeweiligen Eintrag /etc/vfstab identisch sind.
Stellen Sie sicher, dass die Einträge in der Datei /etc/vfstab auf jedem Knoten die Geräte in derselben Reihenfolge auflisten.
Prüfen Sie die Abhängigkeiten der Dateisysteme bei der Boot-Reihenfolge.
Beispielkonfiguration: phys-schost-1 hängt das Plattengerät d0 in /global/oracle/ ein und phys-schost-2 hängt das Plattengerät d1 in /global/oracle/logs/ ein. Bei dieser Konfiguration kann phys-schost-2 nur booten und /global/oracle/logs/ einhängen, nachdem phys-schost-1 gebootet und /global/oracle/ eingehängt hat.
Führen Sie auf einem beliebigen Knoten im Cluster das Dienstprogramm für die Konfigurationsprüfung aus.
phys-schost# sccheck |
Das Dienstprogramm für die Konfigurationsprüfung überprüft, ob der Einhängpunkt vorhanden ist. Das Dienstprogramm überprüft auch, dass auf allen Knoten des Clusters die Einträge in der Datei /etc/vfstab korrekt sind. Wenn keine Fehler auftreten, wird nichts zurückgegeben.
Weitere Informationen finden Sie auf der Manpage sccheck(1M).
Hängen Sie das Cluster-Dateisystem ein.
phys-schost# mount /global/device-group/mountpoint/ |
Hängen Sie für UFS das Cluster-Dateisystem von einem beliebigen Cluster-Knoten ein.
SPARC: Hängen Sie für VxFS, das Cluster-Dateisystem vom aktuellen Master von device-group ein, um das erfolgreiche Einhängen des Dateisystems sicherzustellen.
Hängen Sie außerdem ein VxFS-Dateisystem aus dem aktuellen Master von device-group aus, um das erfolgreiche Aushängen des Dateisystems sicherzustellen.
Zum Verwalten eines VxFS-Cluster-Dateisystems in einer Sun Cluster-Umgebung führen Sie die Verwaltungsbefehle nur von dem Primärknoten aus, in dem das VxFS-Cluster-Dateisystem eingehängt ist.
Überprüfen Sie auf jedem Knoten des Clusters, dass das Cluster-Dateisystem eingehängt ist.
Sie können entweder den df- oder den mount-Befehl zum Auflisten der eingehängten Dateisysteme verwenden. Weitere Informationen finden Sie auf der Manpage df(1M) oder mount(1M).
Unter Solaris 10 sind Cluster-Dateisysteme sowohl von der globalen als auch von der nicht globalen Zone aus zugänglich.
Das folgende Beispiel erstellt ein UFS-Cluster-Dateisystem auf dem Solaris Volume Manager-Datenträger /dev/md/oracle/rdsk/d1. Der Datei vfstab auf allen Knoten wird ein Eintrag für das Cluster-Dateisystem hinzugefügt. Anschließend wird von einem Knoten aus der Befehl sccheck ausgeführt. Nachdem die Konfigurationsprüfung erfolgreich abgeschlossen wurde, wird das Cluster-Dateisystem von einem Konten ausgehend eingehängt und auf allen Knoten überprüft.
phys-schost# newfs /dev/md/oracle/rdsk/d1 … phys-schost# mkdir -p /global/oracle/d1 phys-schost# vi /etc/vfstab #device device mount FS fsck mount mount #to mount to fsck point type pass at boot options # /dev/md/oracle/dsk/d1 /dev/md/oracle/rdsk/d1 /global/oracle/d1 ufs 2 yes global,logging … phys-schost# sccheck phys-schost# mount /global/oracle/d1 phys-schost# mount … /global/oracle/d1 on /dev/md/oracle/dsk/d1 read/write/setuid/global/logging/largefiles on Sun Oct 3 08:56:16 2005 |
Legen Sie anhand der folgenden Liste fest, welche auf Ihre Cluster-Konfiguration zutreffende Aufgabe als nächstes ausgeführt werden soll. Wenn Sie mehrere Aufgaben in der Liste durchführen müssen, gehen Sie zur ersten Aufgabe.
Informationen zum Erstellen von nicht globalen Zonen finden Sie unter Erstellen einer nicht globalen Zone auf einem Cluster-Knoten.
SPARC: Wenn Sie Sun Management Center für die Überwachung des Clusters konfigurieren möchten, folgen Sie den Anweisungen in SPARC: Installieren des Sun Cluster-Moduls für Sun Management Center.
Installieren Sie Drittherstelleranwendungen, registrieren Sie Ressourcentypen, konfigurieren Sie Ressourcengruppen und konfigurieren Sie die Datendienste. Informationen finden Sie in der Dokumentation der Anwendungssoftware und im Sun Cluster Data Services Planning and Administration Guide for Solaris OS.
Dieser Abschnitt enthält Verfahren zur Erstellung einer nicht globalen Zone auf einem Cluster-Knoten.
Führen Sie dieses Verfahren für jede nicht globale Zone durch, die Sie im Cluster erstellen.
Vollständige Informationen zum Installieren einer Zone finden Sie im System Administration Guide: Solaris Containers-Resource Management and Solaris Zones .
Sie können eine nicht globale Zone (vereinfacht Zone genannt) unter Solaris 10 auf einem Cluster-Knoten konfigurieren, während der Knoten im Cluster- oder im Nicht-Cluster-Modus gebootet wird.
Wenn Sie eine Zone erstellen, während der Knoten im Nicht-Cluster-Modus gebootet wird, erkennt die Cluster-Software die Knoten, wenn der Knoten dem Cluster beitritt.
Wenn Sie eine Zone erstellen oder entfernen, während sich der Knoten im Cluster-Modus befindet, ändert die Cluster-Software dynamisch ihre Liste der Zonen, die Ressourcengruppen leiten können.
Führen Sie folgende Aufgaben durch:
Planen Sie die Konfiguration für die nicht globale Zone. Beachten Sie die Anforderungen und Einschränkungen in Richtlinien für nicht globale Zonen in einem Cluster.
Halten Sie folgende Informationen bereit:
Die Gesamtanzahl der nicht globalen Zonen, die Sie erstellen möchten.
Den öffentlichen Adapter und die öffentliche IP-Adresse sollen von jeder Zone verwendet werden.
Den Zonenpfad für jede Zone. Dieser Pfad muss ein lokales Dateisystem sein, kein Cluster-Dateisystem oder weitgehend verfügbares lokales Dateisystem.
In jeder Zone sollten ein oder mehrere Geräte angezeigt werden.
(Optional) Den Namen für jede Zone.
Wenn Sie der Zone eine private IP-Adresse zuweisen möchten, stellen Sie sicher, dass der IP-Adressbereich des Clusters die zusätzlichen privaten IP-Adressen, die Sie konfigurieren werden, unterstützen kann. Lassen Sie die aktuelle Konfiguration des privaten Netzwerks mit dem Befehl cluster show-netprops anzeigen.
Wenn der aktuelle IP-Adressbereich nicht ausreicht, um die zusätzlichen privaten IP-Adressen, die Sie konfigurieren werden, zu unterstützen, gehen Sie wie unter Ändern der Konfiguration des privaten Netzwerks beim Hinzufügen von Knoten oder privaten Netzwerken beschrieben vor, um den privaten IP-Adressbereich neu zu konfigurieren.
Zusätzliche Informationen finden Sie unter Zone Components in System Administration Guide: Solaris Containers-Resource Management and Solaris Zones .
Werden Sie ein Superuser auf dem Knoten, auf dem Sie die nicht globale Zone erstellen.
Sie müssen sich in der globalen Zone befinden.
Überprüfen Sie unter Solaris 10 für jeden Knoten, ob die Dienste für mehrere Benutzer für die Service Management Facility (SMF) online geschaltet sind.
Wenn die Dienste für einen Knoten noch nicht online sind, warten Sie, bis der Status "online" angezeigt wird, bevor Sie zum nächsten Schritt übergehen.
phys-schost# svcs multi-user-server STATE STIME FMRI online 17:52:55 svc:/milestone/multi-user-server:default |
Konfigurieren, installieren und booten Sie die neue Zone.
Sie müssen die Eigenschaft autoboot auf true setzen, damit die Ressourcengruppenfunktion in der nicht globalen Zone unterstützt wird.
Befolgen Sie die Anweisungen in der folgenden Dokumentation:
Führen Sie die in Kapitel 18, Planning and Configuring Non-Global Zones (Tasks) in System Administration Guide: Solaris Containers-Resource Management and Solaris Zones aufgeführten Verfahren durch.
Führen Sie die unter Installing and Booting Zones in System Administration Guide: Solaris Containers-Resource Management and Solaris Zones aufgeführten Verfahren durch.
Führen Sie die unter How to Boot a Zone in System Administration Guide: Solaris Containers-Resource Management and Solaris Zones aufgeführten Verfahren durch.
Vergewissern Sie sich, dass sich die Zone im Status ready befindet.
phys-schost# zoneadm list -v ID NAME STATUS PATH 0 global running / 1 my-zone ready /zone-path |
(Optional) Weisen Sie der Zone eine private IP-Adresse und einen privaten Hostnamen zu.
Mit dem folgenden Befehl wird eine verfügbare IP-Adresse aus dem privaten IP-Adressenbereich des Clusters ausgewählt und zugewiesen. Des Weiteren wird mit diesem Befehl der angegebene private Hostname bzw. Hostalias zur Zone zugewiesen und der zugewiesenen privaten IP-Adresse zugeordnet.
phys-schost# clnode set -p zprivatehostname=hostalias node:zone |
Gibt eine Eigenschaft an.
Gibt den privaten Hostnamen bzw. Hostalias der Zone an.
Der Name des Knotens.
Der Name der nicht globalen Zone.
Führen Sie die Erstkonfiguration der internen Zone durch.
Führen Sie die unter Performing the Initial Internal Zone Configuration in System Administration Guide: Solaris Containers-Resource Management and Solaris Zones aufgeführten Verfahren durch. Wählen Sie eine der folgenden Methoden:
Melden Sie sich bei der Zone an
Verwenden Sie eine Datei /etc/sysidcfg
Ändern Sie die Datei nsswitch.conf in der nicht globalen Zone.
Diese Änderungen sind erforderlich, damit die Zone in der Lage ist, Suchen nach Cluster-spezifischen Hostnamen und IP-Adressen zu lösen.
Melden Sie sich bei der Zone an.
phys-schost# zogin -c zonename |
Öffnen Sie die Datei /etc/nsswitch.conf zur Bearbeitung.
phys-schost# vi /etc/nsswitch.conf |
Fühen Sie den Cluster-Switch an den Anfang der Suchen nach den Host- und Netzmasken-Einträgen hinzu.
Die geänderten Einträge werden ungefähr wie folgt angezeigt:
… hosts: cluster files nis [NOTFOUND=return] … netmasks: cluster files nis [NOTFOUND=return] … |
Gehen Sie zum Installieren einer Anwendung in einer nicht globalen Zone genauso vor wie bei einem Standalone-System. Anweisungen zum Installieren der Software in einer nicht globalen Zone finden Sie in der Installationsdokumentation zu Ihrer Anwendung. Siehe auch Adding and Removing Packages and Patches on a Solaris System With Zones Installed (Task Map) in System Administration Guide: Solaris Containers-Resource Management and Solaris Zones .
Anweisungen zum Installieren und Konfigurieren eines Datendienstes in einer nicht globalen Zone finden Sie im Sun Cluster-Handbuch zu dem jeweiligen Datendienst.