Sun Cluster Handbuch Softwareinstallation für Solaris OS

Konfigurieren des Clusters

In diesem Abschnitt werden Informationen und Verfahren zum Konfigurieren der auf dem Cluster installierten Software bereitgestellt.

So erstellen Sie Cluster-Dateisysteme

Mit diesem Verfahren erstellen Sie ein Cluster-Dateisystem. Im Gegensatz zu einem lokalen Dateisystem ist der Zugriff auf ein Cluster-Dateisystem von jedem Knoten im Cluster möglich. Wenn Sie die Datendienste mit SunPlex-Installationsprogramm installiert haben, wurden ggf. ein oder mehrere Cluster-Dateisysteme durch SunPlex-Installationsprogramm erstellt.


Caution – Caution –

Alle Daten auf den Platten werden zerstört, wenn Sie ein Dateisystem erstellen. Achten Sie darauf, den richtigen Plattengerätenamen anzugeben. Wenn Sie einen falschen Gerätenamen angeben, werden ggf. Daten gelöscht, die gar nicht gelöscht werden sollten.


Führen Sie dieses Verfahren für jedes zu erstellende Cluster-Dateisystem aus.

  1. Stellen Sie sicher, dass die Datenträger-Manager-Software installiert und konfiguriert ist.

    Verfahren für die Datenträger-Manager-Installation finden Sie unter Installieren und Konfigurieren der Software Solstice DiskSuite oder Solaris Volume Manager oder SPARC: Installieren und Konfigurieren der Software VxVM .

  2. Melden Sie sich bei einem Cluster-Knoten als Superbenutzer an.


    Tipp –

    Um die Dateisystemerstellung zu beschleunigen, melden Sie sich als Superbenutzer beim aktuellen Primärknoten des globalen Geräts an, für das Sie ein Dateisystem erstellen.


  3. Erstellen Sie ein Dateisystem.

    • Bei einem UFS-Dateisystem verwenden Sie den Befehl newfs(1M).


      # newfs raw-disk-device
      

      Die nachstehende Tabelle zeigt Beispiele für Namen des Arguments Im raw_Modus betriebenes Plattengerät. Beachten Sie, dass die Benennungskonventionen bei jedem Datenträger-Manager unterschiedlich sind.

      Datenträger-Manager 

      Beispiel für Plattengerätenamen 

      Beschreibung 

      Solstice DiskSuite oder Solaris Volume Manager 

      /dev/md/nfs/rdsk/d1

      Im raw-Modus betriebenes Plattengerät d1 im nfs-Plattensatz

      SPARC: VERITAS Volume Manager 

      /dev/vx/rdsk/oradg/vol01

      Im raw-Modus betriebenes Plattengerät vol01 in der oradg-Plattengruppe

      Keine 

      /dev/global/rdsk/d1s3

      Im raw-Modus betriebenes Plattengerät d1s3

    • Bei Sun StorEdge QFS-Dateisystemen definieren Sie die Konfiguration gemäß den Anweisungen im Sun StorEdge QFS and Sun StorEdge SAM-FS Software Installation and Configuration Guide.

    • SPARC: Bei VERITAS File System (VxFS)-Dateisystemen befolgen Sie die Anweisungen in der Dokumentation zu VxFS.

  4. Erstellen Sie auf jedem Knoten im Cluster ein Einhängepunktverzeichnis für das Cluster-Dateisystem.

    Ein Einhängepunkt ist auf jedem Knoten erforderlich, auch wenn von einem Knoten auf das Cluster-Dateisystem nicht zugegriffen wird.


    Tipp –

    Erstellen Sie zur einfacheren Verwaltung den Einhängepunkt im Verzeichnis /global/Gerätegruppe/. Dieser Speicherort ermöglicht Ihnen, global verfügbare Cluster-Dateisysteme von lokalen Dateisystemen einfach zu unterscheiden.



    # mkdir -p /global/Gerätegruppe/Einhängepunkt/
    
    Gerätegruppe

    Name des Verzeichnisses, das dem Namen der Gerätegruppe entspricht, die das Gerät enthält

    Einhängepunkt

    Name des Verzeichnisses, in dem das Cluster-Dateisystem eingehängt werden soll

  5. Fügen Sie der /etc/vfstab-Datei auf jedem Knoten im Cluster einen Eintrag für den Einhängepunkt hinzu.

    Einzelheiten finden Sie in der Online-Dokumentation unter vfstab(4).

    1. Legen Sie in jedem Eintrag die erforderlichen Einhängeoptionen für den Typ des verwendeten Dateisystems fest. Eine Liste der erforderlichen Einhängeoptionen finden Sie unter Tabelle 2–10, Tabelle 2–11 oder Tabelle 2–12.


      Hinweis –

      Verwenden Sie nicht die Einhängeoption logging für Solstice DiskSuite-Transaktions-Metageräte und Solaris Volume Manager-Transaktions-Datenträger. Transaktions-Metageräte und Transaktions-Datenträger stellen ihre eigene Protokollierung bereit.

      Daneben ist geplant, Es ist geplant, Solaris Volume Manager Transaktions-Datenträger-Protokollierung (früher Solstice DiskSuite Transaktions-Metageräte-Protokollierung) bei einer kommenden Solaris-Version aus dem Solaris-Betriebssystem zu entfernen. Solaris UFS-Protokollierung bietet dieselben Funktionen, aber höhere Leistung bei geringeren Systemverwaltungsanforderungen und -aufwand.


      Tabelle 2–10 Einhängeoptionen für UFS-Cluster-Dateisysteme

      Einhängeoption 

      Beschreibung 

      global

      Erforderlich. Mit dieser Option wird das Dateisystem für alle Knoten im Cluster sichtbar.

      logging

      Erforderlich. Diese Option aktiviert die Protokollierung.

      forcedirectio

      Erforderlich für Cluster-Dateisysteme, die Oracle Real Application Clusters-RDBMS-Datendateien, Protokolldateien und Steuerdateien hosten.


      Hinweis –

      Oracle Real Application Clusters wird nur in SPARC-basierten Clustern unterstützt.


      onerror=panic

      Erforderlich . Sie müssen die Einhängeoption onerror=panic in der Datei /etc/vfstab nicht explizit angeben. Diese Einhängeoption ist bereits der Standardwert, wenn keine andere onerror-Einhängeoption angegeben wird.


      Hinweis –

      Nur die Einhängeoption onerror=panic wird von der Sun Cluster-Software unterstützt. Verwenden Sie nicht die Einhängeoptionen onerror=umount und onerror=lock. Diese Einhängeoptionen werden aus folgenden Gründen nicht in Cluster-Dateisystemen unterstützt:

      • Die Verwendung der Einhängeoption onerror=umount oder onerror=lock kann dazu führen, dass das Cluster-Dateisystem gesperrt wird bzw. dass kein Zugriff mehr möglich ist. Dies kann im Falle von Dateifehlern im Cluster-Dateisystem auftreten.

      • Die Einhängeoption onerror=umount oder onerror=lock kann dazu führen, dass das Cluster-Dateisystem nicht eingehängt werden kann. Dies kann wiederum dazu führen, dass Anwendungen im Cluster-Dateisystem hängen oder dass Anwendungen nicht beendet werden können.

      Möglicherweise muss ein Knoten neu gebootet werden, um aus diesen Zuständen wiederhergestellt zu werden.


      syncdir

      Optional . Wenn Sie syncdir angeben, ist beim Systemaufruf write() ein POSIX-kompatibles Dateisystem-Verhalten gewährleistet. Wenn ein Aufruf write() erfolgt, stellt diese Einhängeoption sicher, dass ausreichend Speicherplatz auf der Platte vorhanden ist.

      Wenn Sie syncdir nicht angeben, erfolgt dasselbe Verhalten wie bei UFS-Dateisystemen. Wenn Sie syncdir nicht angeben, kann die Schreibleistung bei der Zuweisung von Plattenblöcken, wie zum Beispiel dem Anhängen von Daten an eine Datei, signifikant verbessert werden. In manchen Fällen bemerken Sie jedoch ohne syncdir die Bedingung von nicht ausreichendem Speicherplatz (ENOSPC) erst beim Schließen einer Datei.

      ENOSPC wird beim Schließen nur sehr kurz nach einem Failover angezeigt. Mit syncdir und POSIX-Verhalten wird die Bedingung von nicht ausreichendem Speicherplatz vor dem Schließen bemerkt.

      Weitere Informationen zu UFS-Einhängeoptionen finden Sie in der Online-Dokumentation unter mount_ufs (1M).

      Tabelle 2–11 SPARC: Einhängeparameter für gemeinsam genutzte Sun StorEdge QFS-Dateisysteme

      Einhängeparameter 

      Beschreibung 

      shared

      Erforderlich. Diese Option gibt an, dass ein gemeinsam genutztes Dateisystem vorliegt, das demzufolge global für alle Knoten im Cluster sichtbar ist.


      Achtung – Achtung –

      Stellen Sie sicher, dass die Einstellungen in der Datei /etc/vfstab nicht im Konflikt mit den Einstellungen in der Datei /etc/opt/SUNWsamfs/samfs.cmd stehen. Die Einstellungen in der Datei /etc/vfstab haben Vorrang vor den Einstellungen in der Datei /etc/opt/SUNWsamfs/samfs.cmd.


      Für bestimmte Datendienste, z. B. Sun Cluster Support für Oracle Real Application Clusters, gelten zusätzliche Anforderungen und Richtlinien hinsichtlich der QFS-Einhängeparameter. Hinweise zu zusätzlichen Anforderungen finden Sie im Handbuch zu den Datendiensten.

      Weitere Informationen zu den QFS-Einhängeparametern finden Sie in der Online-Dokumentation unter mount_samfs( 1M).


      Hinweis –

      Die Protokollierung wird nicht durch einen Einhängeparameter in der Datei /etc/vfstab aktiviert. Soll die Protokollierung aktiviert werden, befolgen Sie die Anweisungen im Sun StorEdge QFS and Sun StorEdge SAM-FS Software Installation and Configuration Guide.


      Tabelle 2–12 SPARC: Einhängeoptionen für VxFS-Cluster-Dateisysteme

      Einhängeoption 

      Beschreibung 

      global

      Erforderlich. Mit dieser Option wird das Dateisystem für alle Knoten im Cluster sichtbar.

      log

      Erforderlich. Diese Option aktiviert die Protokollierung.

      Weitere Informationen zu VxFS-Einhängeoptionen finden Sie in der Online-Dokumentation unter VxFS mount_vxfs und “Administering Cluster File Systems Overview” in Sun Cluster System Administration Guide for Solaris OS.

    2. Um das Cluster-Dateisystem automatisch einzuhängen, stellen Sie das Feld mount at boot auf yes ein.

    3. Stellen Sie sicher, dass die Informationen für jedes Cluster-Dateisystem auf jedem Knoten im jeweiligen Eintrag /etc/vfstab identisch sind.

    4. Stellen Sie sicher, dass die Einträge in der Datei /etc/vfstab auf jedem Knoten die Geräte in derselben Reihenfolge auflisten.

    5. Prüfen Sie die Abhängigkeiten der Dateisysteme bei der Boot-Reihenfolge.

      Betrachten Sie zum Beispiel das Szenario, in dem phys-schost-1 das Plattengerät d0 in /global/oracle/ und phys-schost-2 das Plattengerät d1 in /global/oracle/logs/ einhängen. Bei dieser Konfiguration kann phys-schost-2 nur booten und /global/oracle/logs/ einhängen, nachdem phys-schost-1 gebootet und /global/oracle/ eingehängt hat.

  6. Führen Sie das Dienstprogramm sccheck (1M) auf einem beliebigen Knoten im Cluster aus.

    Das sccheck-Dienstprogramm überprüft das Vorhandensein von Einhängepunkten. Das Dienstprogramm überprüft auch, dass auf allen Knoten des Clusters die Einträge in der Datei /etc/vfstab korrekt sind.


    # sccheck
    

    Wenn keine Fehler auftreten, wird nichts zurückgegeben.

  7. Hängen Sie das Cluster-Dateisystem ein.


    # mount /global/device-group/mountpoint/
    

    • Bei UFS und QFS hängen Sie das Cluster-Dateisystem von einem beliebigen Cluster-Knoten ein.

    • SPARC: Bei VxFS hängen Sie das Cluster-Dateisystem aus dem aktuellen Master von Gerätegruppe ein, damit sichergestellt ist, dass das Dateisystem fehlerfrei eingehängt wird. Hängen Sie außerdem ein VxFS-Dateisystem aus dem aktuellen Master von Gerätegruppe aus, um das erfolgreiche Aushängen des Dateisystems sicherzustellen.


      Hinweis –

      Zum Verwalten eines VxFS-Cluster-Dateisystems in einer Sun Cluster-Umgebung führen Sie die Verwaltungsbefehle nur von dem Primärknoten aus, in dem das VxFS-Cluster-Dateisystem eingehängt ist.


  8. Überprüfen Sie auf jedem Knoten des Clusters, dass das Cluster-Dateisystem eingehängt ist.

    Sie können den Befehl df(1M) oder mount(1M) zum Auflisten eingehängter Dateisysteme verwenden.

  9. Konfigurieren von IP-Netzwerk-Multipathing-Gruppen.

    Gehen Sie zu So konfigurieren Sie Internet Protocol (IP) Network Multipathing-Gruppen .

Beispiel – Erstellen eines Cluster-Dateisystems

Das folgende Beispiel erstellt ein UFS-Cluster-Dateisystem auf dem Solstice DiskSuite-Metagerät /dev/md/oracle/rdsk/d1.


# newfs /dev/md/oracle/rdsk/d1
…
 
(auf jedem Knoten)
# mkdir -p /global/oracle/d1
# vi /etc/vfstab
#device           device        mount   FS      fsck    mount   mount
#to mount         to fsck       point   type   ; pass    at boot options
#                     
/dev/md/oracle/dsk/d1 /dev/md/oracle/rdsk/d1 /global/oracle/d1 ufs 2 yes global,logging
(Speichern und Beenden)
 
(auf einem Knoten)
# sccheck
# mount /global/oracle/d1
# mount
…
/global/oracle/d1 on /dev/md/oracle/dsk/d1 read/write/setuid/global/logging/largefiles
on Sun Oct 3 08:56:16 2000

So konfigurieren Sie Internet Protocol (IP) Network Multipathing-Gruppen

Führen Sie diese Aufgabe auf jedem Knoten des Clusters aus. Wenn Sie Sun Cluster HA für Apache oder Sun Cluster HA für NFS mit SunPlex-Installationsprogramm installiert haben, hat SunPlex-Installationsprogramm IP-Netzwerk-Multipathing-Gruppen für die öffentlichen Netzwerkadapter konfiguriert, auf die diese Datendienste zugreifen. Sie müssen IP-Netzwerk-Multipathing-Gruppen für die verbleibenden öffentlichen Netzwerkadapter konfigurieren.


Hinweis –

Alle öffentlichen Netzwerkadapter müssen zu einer IP-Netzwerk-Multipathing-Gruppe gehören.


  1. Halten Sie das ausgefüllte Arbeitsblatt Öffentliche Netzwerke bereit.

  2. Konfigurieren Sie IP-Netzwerk-Multipathing-Gruppen.

    Führen Sie die Verfahren für IPv4-Adressen unter “Deploying Network Multipathing” im IP Network Multipathing Administration Guide (Solaris 8) oder “Administering Network Multipathing (Task)” in System Administration Guide: IP Services (Solaris 9) aus.

    Beachten Sie diese zusätzlichen Anforderungen, um IP-Netzwerk-Multipathing-Gruppen in einer Sun Cluster-Konfiguration zu konfigurieren:

    • Jeder öffentliche Netzwerkadapter muss zu einer Multipathing-Gruppe gehören.

    • Bei Multipathing-Gruppen, die zwei oder mehr Adapter enthalten, müssen Sie eine IP-Testadresse für jeden Adapter in der Gruppe konfigurieren. Wenn eine Multipathing-Gruppe nur einen Adapter enthält, müssen Sie keine IP-Testadresse konfigurieren.

    • Die IP-Testadressen für alle Adapter in derselben Multipathing-Gruppe müssen zu einem IP-Teilnetz gehören.

    • IP-Testadressen dürfen nicht von normalen Anwendungen verwendet werden, da sie nicht hoch verfügbar sind.

    • Die Datei /etc/default/mpathd muss für TRACK_INTERFACES_ONLY_WITH_GROUPS den Wert yes enthalten.

    • Der Name einer Multipathing-Gruppe unterliegt keinen Anforderungen oder Beschränkungen.

  3. Sollen private Hostnamen geändert werden, gehen Sie zu So ändern Sie private Hostnamen .

  4. Falls Sie nicht bereits eine eigene Datei /etc/inet/ntp.conf installiert hatten, bevor Sie die Software Sun Cluster installiert haben, installieren oder erstellen Sie die NTP-Konfigurationsdatei.

    Gehen Sie zu So konfigurieren Sie das Network Time Protocol (NTP) .

  5. Wenn Sie einen Sun-Cluster auf einem SPARC-gestützten System verwenden und der Cluster mit Sun Management Center überwacht werden soll, installieren Sie das Sun Cluster-Modul für Sun Management Center.

    Gehen Sie zu SPARC: Installieren des Sun Cluster-Moduls für Sun Management Center .

  6. Installieren Sie Drittherstelleranwendungen, registrieren Sie Ressourcentypen, konfigurieren Sie Ressourcengruppen, und konfigurieren Sie Datendienste.

    Befolgen Sie die Anweisungen im Sun Cluster Data Services Planning and Administration Guide for Solaris OS und in der Dokumentation der Anwendungs-Software.

So ändern Sie private Hostnamen

Führen Sie diese Aufgabe aus, wenn Sie nicht die standardmäßigen privaten Hostnamen (clusternodenodeid-priv) verwenden möchten, die bei der Installation der Sun Cluster-Software zugewiesen werden.


Hinweis –

Führen Sie dieses Verfahren nicht aus, wenn Anwendungen und Datendienste konfiguriert und gestartet wurden. Sonst könnte eine Anwendung oder ein Datendienst nach der Umbenennung des Hostnamens weiterhin die alten privaten Hostnamen verwenden, wodurch ein Hostnamenkonflikt verursacht würde. Wenn Anwendungen oder Datendienste laufen, beenden Sie sie vor dem Ausführen dieses Verfahren.


Führen Sie dieses Verfahren auf einem aktiven Knoten im Cluster aus.

  1. Melden Sie sich bei einem Cluster-Knoten als Superbenutzer an.

  2. Starten Sie das Dienstprogramm scsetup(1M).


    # scsetup
    

  3. Wählen Sie im Hauptmenü den Befehl "Private Hostnamen".

  4. Wählen Sie im Menü "Privater Hostname" den Befehl "Privaten Hostnamen ändern".

  5. Befolgen Sie die Eingabeaufforderungen, um den privaten Hostnamen zu ändern.

    Wiederholen Sie diesen Vorgang bei jedem privaten Hostnamen, den Sie ändern möchten.

  6. Überprüfen Sie die neuen privaten Hostnamen.


    # scconf -pv | grep "private hostname"
    (phys-schost-1) Privater Hostname des Knotens:      phys-schost-1-priv
    (phys-schost-3) Privater Hostname des Knotens:      phys-schost-3-priv
    (phys-schost-2) Privater Hostname des Knotens:      phys-schost-2-priv

  7. Falls Sie nicht bereits eine eigene Datei /etc/inet/ntp.conf installiert hatten, bevor Sie die Software Sun Cluster installiert haben, installieren oder erstellen Sie die NTP-Konfigurationsdatei.

    Gehen Sie zu So konfigurieren Sie das Network Time Protocol (NTP) .

  8. (Optional) SPARC: Konfigurieren Sie Sun Management Center für die Überwachung des Clusters.

    Gehen Sie zu SPARC: Installieren des Sun Cluster-Moduls für Sun Management Center .

  9. Installieren Sie Drittherstelleranwendungen, registrieren Sie Ressourcentypen, konfigurieren Sie Ressourcengruppen, und konfigurieren Sie Datendienste.

    Weitere Informationen finden Sie in der Dokumentation zur Anwendungssoftware sowie im Sun Cluster Data Services Planning and Administration Guide for Solaris OS.

So konfigurieren Sie das Network Time Protocol (NTP)

Führen Sie diese Aufgabe aus, um die NTP-Konfigurationsdatei nach der Installation der Sun Cluster-Software zu erstellen oder zu ändern. Sie müssen auch die NTP-Konfigurationsdatei ändern, wenn Sie einem vorhandenen Cluster einen Knoten hinzufügen oder wenn Sie den privaten Hostnamen eines Knotens in einem Cluster ändern. Wenn Sie einen Knoten zu einem Ein-Knoten-Cluster hinzugefügt haben, stellen Sie sicher, dass die verwendete NTP-Konfigurationsdatei auf den ursprünglichen Cluster-Knoten kopiert wurde.

Die wichtigste Anforderung bei der Konfiguration von NTP oder einer anderen Zeitsynchronisierungsfunktionalität im Cluster ist, dass alle Cluster auf dieselbe Zeit synchronisiert sind. Die Zeitgenauigkeit der einzelnen Knoten ist gegenüber der zeitlichen Synchronisierung unter den Knoten zweitrangig. Sie können NTP so konfigurieren, wie es am besten Ihren Anforderungen entspricht, sofern diese grundlegende Anforderung der Synchronisierung erfüllt wird.

Weitere Informationen zur Cluster-Zeit finden Sie im Sun Cluster Concepts Guide for Solaris OS. Weitere Richtlinien für die NTP-Konfiguration einer Sun Cluster-Konfiguration finden Sie in der Vorlagendatei /etc/inet/ntp.cluster.

  1. Wenn Sie bereits eine eigene Datei /etc/inet/ntp.conf installiert hatten, bevor Sie Sun Cluster installiert haben, ist es nicht notwendig, die Datei ntp.conf zu ändern.

    Springen Sie zu Schritt 8.

  2. Melden Sie sich bei einem Cluster-Knoten als Superbenutzer an.

  3. Wenn Sie eine eigene Datei besitzen, kopieren Sie diese Datei auf jeden Knoten im Cluster.

  4. Falls keine eigene Datei /etc/inet/ntp.conf zur Installation bereitsteht, verwenden Sie die Datei /etc/inet/ntp.conf.cluster als NTP-Konfigurationsdatei.


    Hinweis –

    Benennen Sie die Datei ntp.conf.cluster nicht in ntp.conf um.


    Wenn die Datei /etc/inet/ntp.conf.cluster nicht auf dem Knoten vorhanden ist, könnte eine Datei /etc/inet/ntp.conf einer früheren Installation der Sun Cluster-Software vorhanden sein. Die Sun Cluster-Software erstellt die Datei /etc/inet/ntp.conf.cluster als NTP-Konfigurationsdatei, sofern noch keine Datei /etc/inet/ntp.conf auf dem Knoten vorhanden ist. Wenn dies der Fall ist, bearbeiten Sie stattdessen die Datei ntp.conf wie folgt.

    1. Öffnen Sie die Datei /etc/inet/ntp.conf.cluster auf einem Knoten im Cluster (mit einem beliebigen Texteditor) und nehmen Sie die gewünschten Änderungen vor.

    2. Stellen Sie sicher, dass für den privaten Hostnamen jedes Cluster-Knotens ein Eintrag vorhanden ist.

      Wenn Sie den privaten Hostnamen eines Knotens geändert haben, stellen Sie sicher, dass die NTP-Konfigurationsdatei den neuen privaten Hostnamen enthält.

    3. Entfernen Sie alle nicht verwendeten privaten Hostnamen.

      Die Datei ntp.conf.cluster könnte nicht vorhandene private Hostnamen enthalten. Wenn ein Knoten neu gebootet wird, generiert das System Fehlermeldungen, wenn der Knoten versucht, mit diesen nicht vorhandenen privaten Hostnamen Kontakt herzustellen.

    4. Nehmen Sie gegebenenfalls weitere Änderungen vor, um die NTP-Anforderungen zu erfüllen.

  5. Kopieren Sie die NTP-Konfigurationsdatei auf alle Knoten im Cluster.

    Der Inhalt der NTP-Konfigurationsdatei muss auf allen Cluster-Knoten identisch sein.

  6. Stoppen Sie den NTP-Dämon auf jedem Knoten.

    Warten Sie bis der Stopp-Befehl auf jedem Knoten erfolgreich fertig gestellt ist, bevor Sie zu Schritt 7 gehen.


    # /etc/init.d/xntpd stop
    

  7. Starten Sie den NTP-Dämon auf jedem Knoten erneut.

    • Wenn Sie die Datei ntp.conf.cluster verwenden, führen Sie den folgenden Befehl aus:


      # /etc/init.d/xntpd.cluster start
      

      Das Startskript xntpd.cluster sucht zuerst die Datei /etc/inet/ntp.conf. Wenn diese Datei vorhanden ist, wird das Skript automatisch beendet, ohne den NTP-Dämon zu starten. Wenn die Datei ntp.conf fehlt, aber die Datei ntp.conf.cluster vorhanden ist, startet das Skript den NTP-Dämon. In diesem Fall verwendet das Skript die ntp.conf.cluster-Datei als NTP-Konfigurationsdatei.

    • Wenn Sie die Datei ntp.conf verwenden, führen Sie den folgenden Befehl aus:


      # /etc/init.d/xntpd start
      
  8. (Optional) SPARC: Konfigurieren Sie Sun Management Center für die Überwachung des Clusters.

    Gehen Sie zu SPARC: Installieren des Sun Cluster-Moduls für Sun Management Center .

  9. Installieren Sie Drittherstelleranwendungen, registrieren Sie Ressourcentypen, konfigurieren Sie Ressourcengruppen, und konfigurieren Sie Datendienste.

    Weitere Informationen finden Sie in der Dokumentation der Anwendungssoftware und im Sun Cluster Data Services Planning and Administration Guide for Solaris OS for Solaris OS.