Sun Cluster 3.2 - Versionshinweise für Solaris OS

Dokumentationsprobleme

Dieser Abschnitt beschreibt Fehler oder Auslassungen in der Dokumentation, Online-Hilfe bzw. Online-Dokumentation (Manpages) zu Sun Cluster 3.2.

Konzept-Guide

In diesem Abschnitt werden Fehler und Auslassungen im Sun Cluster Concepts Guide for Solaris OS behandelt.

x86: Sun Cluster-Topologien für x86

Die folgenden Informationen im Abschnitt Sun Cluster Topologies for x86 in Sun Cluster Concepts Guide for Solaris OS sind für Sun Cluster 3.2 nicht gültig: "Sun Cluster unterstützt in x86-basierten Systemen zwei Knoten in einem Cluster."

Diese Informationen müssen wie folgt lauten: "Eine Sun Cluster-Konfiguration mit x86-basierten Systemen unterstützt bis zu acht Knoten in einem Cluster, der unter Oracle RAC ausgeführt wird, bzw. bis zu vier Knoten in einem Cluster, der nicht unter Oracle RAC ausgeführt wird."

Software-Installationshandbuch

In diesem Abschnitt werden Fehler und Auslassungen im Sun Cluster Handbuch Softwareinstallation für Solaris OS behandelt.

Fehlende Schritte für die Vorbereitung der Aktualisierung von Clustern, auf denen die Run Sun Cluster Geographic Edition-Software ausgeführt wird

Wenn Sie einen Cluster aktualisieren, auf dem auch die Sun Cluster Geographic Edition-Software ausgeführt wird, müssen Sie zusätzliche vorbereitende Schritte durchführen, bevor Sie mit der Aktualisierung der Sun Cluster-Software beginnen. Zu diesen Schritten gehört das Herunterfahren der Sun Cluster Geographic Edition-Infrastruktur. Lesen Sie die Verfahren in Kapitel 4, Upgrading the Sun Cluster Geographic Edition Software in Sun Cluster Geographic Edition Installation Guide im Sun Cluster Geographic Edition Installation Guide . In diesen Verfahren wird beschrieben, an welcher Stelle Sie auf das Sun Cluster-Software-Installationshandbuch zurückgreifen müssen, um die Aktualisierung der Sun Cluster-Software durchzuführen.

Sun Cluster Data Services Planning and Administration Guide

In diesem Abschnitt werden Fehler und Auslassungen im Sun Cluster Data Services Planning and Administration Guide for Solaris OS behandelt.

Unterstützung skalierbarer Dienste in nicht globalen Zonen

Unter Resource Type Properties in Sun Cluster Data Services Planning and Administration Guide for Solaris OS fehlt in der Beschreibung der Ressourceneigenschaft Failover eine Anmerkung zur Unterstützung von skalierbaren Diensten in nicht globalen Zonen. Diese Unterstützung ist für Ressourcen gewährleistet, deren Ressourcentypeigenschaft Failover als FALSCH und deren Ressourceneigenschaft Skalierbar als WAHR festgelegt ist. Diese Kombination der Eigenschaften gibt einen skalierbaren Dienst an, der eine SharedAddress-Ressource für den Netzwerklastenausgleich verwendet. In Sun Cluster 3.2 können Sie einen skalierbaren Dienst dieses Typs in einer Ressourcengruppe konfigurieren, die in einer nicht globalen Zone ausgeführt wird. Sie können einen skalierbaren Dienst jedoch nicht für die Ausführung in mehreren nicht globalen Zonen auf demselben Knoten konfigurieren.

Sun Cluster Data Service for MaxDB Guide

In diesem Abschnitt werden Fehler und Auslassungen im Sun Cluster Data Service for MaxDB Guide for Solaris OS behandelt.

Änderungen der Sun Cluster Data Service for MaxDB-Unterstützung in nicht globalen Zonen auf SPARC- und x86-basierten Systemen

Sun Cluster Data Service for MaxDB unterstützt nicht globale Zonen auf SPARC- und x86-basierten Systemen. Für diese Unterstützung sind folgende Änderungen im Sun Cluster Data Service MaxDB Guide notwendig. Die folgenden Schritte können auf einem Cluster ausgeführt werden, der für eine Ausführung in globalen Zonen konfiguriert wurde. Wenn der Cluster in nicht globalen Zonen ausgeführt werden soll, sind manche Schritte möglicherweise nicht erforderlich. Diese Schritte enthalten einen entsprechenden Hinweis.

Sun Cluster Data Service for SAP Guide

In diesem Abschnitt werden Fehler und Auslassungen im Sun Cluster Data Service for SAP Guide for Solaris OS behandelt.

Änderungen der SAP-Unterstützung in nicht globalen Zonen auf SPARC- und x86-basierten Systemen

Sun Cluster Data Service for SAP unterstützt nicht globale Zonen auf SPARC- und x86-basierten Systemen. Für diese Unterstützung sind folgende Änderungen im Sun Cluster Data Service SAP notwendig. Die folgenden Schritte können auf einem Cluster ausgeführt werden, der für eine Ausführung in globalen Zonen konfiguriert wurde. Wenn der Cluster in nicht globalen Zonen ausgeführt werden soll, sind manche Schritte möglicherweise nicht erforderlich. Diese Schritte enthalten einen entpsrechenden Hinweis.

Sun Cluster Data Service for SAP liveCache Guide

In diesem Abschnitt werden Fehler und Auslassungen im Sun Cluster Data Service for SAP liveCache Guide for Solaris OS behandelt.

Änderungen der SAP liveCache-Unterstützung in nicht globalen Zonen auf SPARC- und x86-basierten Systemen

Sun Cluster Data Service for SAP liveCache unterstützt nicht globale Zonen auf SPARC- und x86-basierten Systemen. Für diese Unterstützung sind folgende Änderungen im Sun Cluster Data Service SAP liveCache Guide notwendig. Die folgenden Schritte können auf einem Cluster ausgeführt werden, der für eine Ausführung in globalen Zonen konfiguriert wurde. Wenn der Cluster in nicht globalen Zonen ausgeführt werden soll, sind manche Schritte möglicherweise nicht erforderlich. Diese Schritte enthalten einen entpsrechenden Hinweis.

Sun Cluster Data Service for SAP Web Application Server Guide

In diesem Abschnitt werden Fehler und Auslassungen im Sun Cluster Data Service for SAP Web Application Server Guide for Solaris OS behandelt.

SAP 7.0-Unterstützung für Sun Cluster HA for SAP Web Application Server (6461002)

In SAP 7.0 und NW2004SR1 wird beim Starten einer SAP-Instanz standardmäßig der sapstartsrv-Prozess gestartet. Der sapstartsrv-Prozess wird von Sun Cluster HA for SAP Web Application Server gesteuert. Das heißt, wenn Sun Cluster HA for SAP Web Application Server eine SAP-Instanz beendet oder ein Failover der Instanz durchführt, wird der sapstartsrv-Prozess nicht beendet.

Um zu verhindern, dass der sapstartsrv-Prozess beim Starten einer SAP-Instanz durch Sun Cluster HA for SAP Web Application gestartet wird, müssen Sie das Skript startsap bearbeiten. Zusätzlich müssen Sie die Datei /etc/rc3.d/S90sapinit auf allen Sun Cluster-Knoten in /etc/rc3.d/xxS90sapinit umbenennen.

Änderungen der SAP Web Application Server-Unterstützung in nicht globalen Zonen auf SPARC- und x86-basierten Systemen

Sun Cluster Data Service for SAP Web Application Server unterstützt nicht globale Zonen auf SPARC- und x86-basierten Systemen. Für diese Unterstützung sind folgende Änderungen im Sun Cluster Data Service SAP Web Application Server Guide notwendig. Die folgenden Schritte können auf einem Cluster ausgeführt werden, der für eine Ausführung in globalen Zonen konfiguriert wurde. Wenn der Cluster in nicht globalen Zonen ausgeführt werden soll, sind manche Schritte möglicherweise nicht erforderlich. Diese Schritte enthalten einen entpsrechenden Hinweis.

Einrichten von SAP Web Application Server in nicht globalen Zonen für HASP-Konfiguration (6530281)

Führen Sie folgendes Verfahren durch, um eine HAStoragePlus-Ressource für nicht globale Zonen zu konfigurieren.


Hinweis –

ProcedureSo richten Sie SAP Web Application Server in nicht globalen Zonen für eine HAStoragePlus-Konfiguration ein

  1. Melden Sie sich auf jedem Cluster im Knoten als Superuser bzw. als Benutzer mit der RBAC-Autorisierung solaris.cluster.modify an.

  2. Erstellen Sie die skalierbare Ressourcengruppe, die die HAStoragePlus-Ressource enthält, mit nicht globalen Zonen.


       # clresourcegroup create \
         -p Maximum_primaries=m\
         -p Desired_primaries=n\
        [-n node-zone-list] hasp-resource-group
    
    -p Maximum_primaries=m

    Gibt die maximale Anzahl aktiver Primärknoten für diese Ressourcengruppe an.

    -p Desired_primaries=n

    Gibt die maximale Anzahl aktiver Primärknoten an, auf denen die Ressourcengruppe einen Startversuch durchführen soll.

    -n node-zone-list

    Gibt in der Knotenliste einer HAStoragePlus-Ressourcengruppe die Liste der Knotennamen an:Zonennamen-Paare wie in der Knotenliste der HAStoragePlus -Ressourcengruppe, in denen SAP-Instanzen online gehen können.

    hasp-resource-group

    Gibt den Namen der hinzuzufügenden skalierbaren Ressourcengruppe an. Der Name muss mit einem ASCII-Zeichen beginnen.

  3. Registrieren Sie den Ressourcentyp für die HAStoragePlus-Ressource.


    # clresourcetype register HAStoragePlus
  4. Erstellen Sie die HAStoragePlus-Ressource hasp-resource und legen Sie Einhängepunkte für das SAP-Dateisystem und globale Gerätepfade fest.


     # clresource create -g hasp-resource-group -t SUNW.HAStoragePlus \
        -p GlobalDevicePaths=/dev/global/dsk/d5s2,dsk/d6 \
        -p affinityon=false -p
    FilesystemMountPoints=/sapmnt/JSC,/usr/sap/trans,/usr/sap/JSC hasp-resource
    
    -g hasp-resource-group

    Gibt den Namen der Ressourcengruppe an.

    GlobalDevicePaths

    Enthält die folgenden Werte:

    • Gruppennamen globaler Geräte, z. B. sap-dg, dsk/d5 .

    • Pfade zu globalen Geräten, z. B. /dev/global/dsk/d5s2, /dev/md/sap-dg/dsk/d6.

    FilesystemMountPoints

    Enthält die folgenden Werte:

    • Einhängepunkte für lokale oder Cluster-Dateisysteme, z. B. /local/mirrlogA,/local/mirrlogB,/sapmnt/JSC,/usr/sap/JSC.

    Die HAStoragePlus-Ressource wird erstellt und aktiviert.

  5. Registrieren Sie den Ressourcentyp für die SAP-Anwendung.


    # clresourcetype register resource-type
    
    resource-type

    Gibt den Namen des hinzuzufügenden Ressourcentyps an. Weitere Informationen finden Sie unter Unterstützte Produkte.

  6. Erstellen Sie eine SAP-Ressourcengruppe.


      # clresourcegroup create [-n node-zone-list] -p 
    RG_affinities=++hastorageplus-rg resource-group-1
    
    resource-group-1

    Gibt die Ressourcengruppe der SAP-Dienste an.

  7. Fügen Sie die SAP-Anwendungsressource zu resource-group-1 hinzu und legen Sie eine Abhängigkeit zu hastorageplus-1 fest.


       # clresource create -g resource-group-1 -t SUNW.application \
         [-p "extension-property[{node-specifier}]"=value, ?] \
         -p Resource_dependencies=hastorageplus-1 resource
    
  8. Bringen Sie die Failover-Ressourcengruppe online.


    # clresourcegroup online resource-group-1
    

Handbuch Systemverwaltung

In diesem Abschnitt werden Fehler und Auslassungen im Sun Cluster System Administration Guide for Solaris OS behandelt.

Solaris Volume Manager-Metaset von Knoten im Nicht-Cluster-Modus nehmen

ProcedureSo nehmen Sie ein Solaris Volume Manager-Metaset von Knoten, die im Nicht-Cluster-Modus gestartet wurden

Führen Sie folgendes Verfahren durch, um eine Anwendung zu Testzwecken außerhalb des Clusters auszuführen.

  1. Ermitteln Sie, ob das Quorum-Gerät im Solaris Volume Manager-Metaset verwendet wird und ob das Quorum-Gerät scsi2- oder scsi3-Reservierungen verwendet.


    # clquorum show
    
    1. Wenn das Quorum-Gerät im Solaris Volume Manager-Metaset vorhanden ist, fügen Sie ein neues Quorum-Gerät hinzu, das nicht Bestandteil des Metasets ist und zu einem späteren Zeitpunkt im Nicht-Cluster-Modus gestartet werden soll.


      # clquorum add did
      
    2. Entfernen Sie das alte Quorum-Gerät.


      # clqorum remove did
      
    3. Wenn das Quorum-Gerät eine scsi2-Reservierung verwendet, entfernen Sie die scsi2-Reservierung von dem alten Quorum-Gerät und vergewissern Sie sich, dass keine weiteren scsi2-Reservierungen vorhanden sind.


      # /usr/cluster/lib/sc/pgre -c pgre_scrub -d /dev/did/rdsk/dids2
      # /usr/cluster/lib/sc/pgre -c pgre_inkeys -d /dev/did/rdsk/dids2
      
  2. Entnehmen Sie den Knoten, der im Nicht-Cluster-Modus gestartet werden soll.


    # clresourcegroup evacuate -n targetnode
    
  3. Nehmen Sie alle Ressourcengruppen offline, die HAStorage- oder HAStoragePlus-Ressourcen sowie Geräte oder Dateisysteme enthalten, die von dem Metaset betroffen sind, das später im Nicht-Cluster-Modus gestartet werden soll.


    # clresourcegroup offline resourcegroupname
    
  4. Deaktivieren Sie alle Ressourcen in den offline genommenen Ressourcengruppen.


    # clresource disable resourcename
    
  5. Beenden Sie die Verwaltung der Ressourcengruppe.


    # clresourcegroup unmanage resourcegroupname
    
  6. Nehmen Sie die entsprechende(n) Gerätegruppe(n) offline.


    # cldevicegroup offline devicegroupname
    
  7. Deaktivieren Sie die Gerätegruppe(n).


    # cldevicegroup disable devicegroupname
    
  8. Booten Sie den passiven Knoten im Nicht-Cluster-Modus.


    # reboot -x
    
  9. Überprüfen Sie, ob der Boot-Vorgang auf dem passiven Knoten abgeschlossen wurde, bevor Sie fortfahren.

    • Solaris 9

      Die Eingabeaufforderung wird erst nach Abschluss des Boot-Vorgangs angezeigt. Es ist keine Aktion erforderlich.

    • Solaris 10


      # svcs -x
      
  10. Ermitteln Sie, ob scsi3-Reservierungen auf den Datenträgern in den Metasets enthalten sind. Führen Sie auf allen Datenträgern in den Metasets folgende Befehle aus:


    # /usr/cluster/lib/sc/scsi -c inkeys -d /dev/did/rdsk/dids2
    
  11. Löschen Sie alle vorhandenen scsi3-Reservierungen auf den Datenträgern.


    # /usr/cluster/lib/sc/scsi -c scrub -d /dev/did/rdsk/dids2
    
  12. Fügen Sie dem entnommenen Knoten das Metaset hinzu.


    # metaset -s name -C take -f
    
  13. Hängen Sie das bzw. die Dateisysteme ein, die sich auf dem angegebenen Gerät im Metaset befinden.


    # mount device mountpoint
    
  14. Starten Sie die Anwendungen und führen Sie den gewünschten Test durch. Wenn der Test abgeschlossen ist, beenden Sie die Anwendung.

  15. Starten Sie den Knoten neu und warten Sie, bis der Startvorgang abgeschlossen wurde.


    # reboot
    
  16. Bringen Sie die Gerätegruppe(n) online.


    # cldevicegroup online -e devicegroupname
    
  17. Starten Sie die Ressourcegruppe(n).


    # clresourcegroup online -eM  resourcegroupname 
    

Verwenden der Solaris IP-Filterfunktion mit Sun Cluster

Sun Cluster unterstützt die Solaris IP-Filterfunktion. Es gelten jedoch folgende Einschränkungen:

ProcedureSo richten Sie die Solaris IP-Filterfunktion ein

  1. Bearbeiten Sie in der Datei /etc/iu.ap die öffentlichen NIC-Einträge, sodass in den Einträgen clhbsndr pfil als Modulliste aufgeführt wird.

    pfil muss das letzte Modul in der Liste sein.


    Hinweis –

    Wenn Sie für öffentliche und private Netzwerke denselben Adaptertyp verwenden, wird durch Ihre Änderung an der /etc/iu.ap-Datei pfil an die privaten Netzwerkdatenströme weitergegeben. Das Cluster-Transportmodul entfernt bei der Datenstromerstellung jedoch alle nicht erwünschten Module, sodass pfil aus den privaten Netzwerkströmen entfernt wird.


  2. Um sicherzustellen , das der IP-Filter im Nicht-Cluster-Modus ordnungsgemäß ausgeführt wird, aktualisieren Sie die Datei /etc/ipf/pfil.ap.

    Aktualisierungen der Datei /etc/iu.ap unterscheiden sich hiervon in manchen Punkten. Weitere Informationen finden Sie in der Dokumentation zum IP-Filter.

  3. Starten Sie alle betroffenen Knoten neu.

    Sie können die Knoten nacheinander starten.

  4. Fügen Sie auf allen betroffenen Knoten der Datei /etc/ipf/ipf.conf Filterregeln hinzu. Informationen zur Syntax von IP-Filterregeln finden Sie auf der Manpage ipf(4)

    Beachten Sie beim Hinzufügen von Filterregeln zu Sun Cluster-Knoten folgende Richtlinien und Anforderungen:

    • Sun Cluster führt Failover über Netzwerkadressen von Knoten zu Knoten aus. Beim Failover ist kein besonderes Verfahren und kein Code erforderlich.

    • Sämtliche Filterregeln, die auf IP-Adressen von Ressourcen für logischen Hostnamen und gemeinsam genutzte Adressen verweisen, müssen auf allen Cluster-Knoten identisch sein.

    • Regeln auf einem Standby-Knoten verweisen auf eine nicht vorhandene IP-Adresse. Diese Regel bleibt Bestandteil des aktiven Regelsatzes des IP-Filters und tritt in Kraft, wenn der Knoten die Adresse nach einem Failover erhält.

    • Alle Filterregeln für NICSs in einer IPMP-Gruppe müssen identisch sein. Das heißt, wenn eine Regel schnittstellenspezifisch ist, müssen dieselben Regeln auch für alle übrigen Schnittstellen in derselben IPMP-Gruppe vorhanden sein.

  5. Aktivieren Sie den SMF-Dienst ipfilter.


    # svcadm enable /network/ipfilter:default
    

Data Services Developer's Guide

In diesem Abschnitt werden Fehler und Auslassungen im Sun Cluster Data Services Developer’s Guide for Solaris OS behandelt.

Unterstützung bestimmter skalierbarer Dienste in nicht globalen Zonen

Unter Resource Type Properties in Sun Cluster Data Services Developer’s Guide for Solaris OS fehlt in der Beschreibung der Ressourceneigenschaft Failover eine Anmerkung zur Unterstützung von skalierbaren Diensten in nicht globalen Zonen. Diese Unterstützung ist für Ressourcen gewährleistet, deren Ressourcentypeigenschaft Failover als FALSCH und deren Ressourceneigenschaft Skalierbar als WAHR festgelegt ist. Diese Kombination der Eigenschaften gibt einen skalierbaren Dienst an, der eine SharedAddress-Ressource für den Netzwerklastenausgleich verwendet. In Sun Cluster 3.2 können Sie einen skalierbaren Dienst dieses Typs in einer Ressourcengruppe konfigurieren, die in einer nicht globalen Zone ausgeführt wird. Sie können einen skalierbaren Dienst jedoch nicht für die Ausführung in mehreren nicht globalen Zonen auf demselben Knoten konfigurieren.

Geändertes Verhalten bei Methoden-Timeout

Die Beschreibung der Änderung im Verhalten bei Methoden-Timeouts in Sun Cluster 3.2 fehlt. Wenn ein RGM-Methodenaufruf das Zeitlimit überschreitet, wird der Prozess mit dem Signal SIGABRT beendet und nicht mehr mit dem Signal SIGTERM. Dadurch wird für alle Mitglieder der Prozessgruppe eine Core-Datei erstellt.


Hinweis –

Vermeiden Sie das Erstellen von Datendienstmethoden, bei denen eine neue Prozessgruppe erstellt wird. Wenn für Ihre Datendienstmethode keine neue Prozessgruppe erstellt werden muss, erstellen Sie zusätzlich einen Signal-Handler für die Signale SIGTERM und SIGABRT. Erstellen Sie die Signal-Handler so, dass das Signal SIGTERM bzw. SIGABRT zur untergeordneten Prozessgruppe weitergeleitet wird, bevor der Signal-Handler den übergeordneten Prozess beendet. Dadurch wird die Wahrscheinlichkeit erhöht, dass alle von der Methode erzeugten Prozesse ordnungsgemäß beendet werden.


Ausführung von CRNP nur in globalen Zonen möglich

Kapitel 12, Cluster Reconfiguration Notification Protocol in Sun Cluster Data Services Developer’s Guide for Solaris OS fehlt die Anmerkung, dass unter Solaris 10 OS das Cluster Reconfiguration Notification Protocol (CRNP) nur in globalen Zonen ausgeführt wird.

Anmerkung bezüglich erforderlicher Solaris-Softwaregruppe unklar

Unter Setting Up the Development Environment for Writing a Data Service in Sun Cluster Data Services Developer’s Guide for Solaris OS wird in einem Hinweis angemerkt, dass die Entwicklerdistribution bzw. die Gesamtdistribution der Solaris-Softwaregruppe erforderlich ist. Dieser Hinweis bezieht sich auf die Entwicklungsmaschine. Da der Hinweis auf eine Anmerkung zum Test des Datendienstes in einem Cluster folgt, kann diese Anforderung fälschlicherweise als Anforderung für den Cluster, auf dem der Datendienst ausgeführt wird, verstanden werden.

Quorum Server User's Guide

In diesem Abschnitt werden Fehler und Auslassungen aus dem Sun Cluster Quorum Server User’s Guide behandelt.

Unterstützte Software- und Hardware-Plattformen

Die folgenden Installationsanforderungen und -anweisungen fehlen oder sind unklar:

Manpages

In diesem Abschnitt werden Fehler, Auslassungen sowie hinzugefügte Informationen zu den Sun Cluster-Manpages behandelt.

ccp(1M)

Im folgenden überarbeiteten Abschnitt "Übersicht" sowie im neu hinzugefügten Abschnitt "Optionen" der Manpage ccp(1M) wird die neue Secure Shell-Unterstützung für Cluster Control Panel-(CCP-)-Dienstprogramme beschrieben:

SYNOPSIS


$CLUSTER_HOME/bin/ccp [-s] [-l username] [-p ssh-port] {clustername | nodename}

OPTIONEN

Die folgenden Optionen werden unterstützt:

-l username

Gibt den Benutzernamen für die ssh-Verbindung an. Diese Option wird an das Dienstprogramm cconsole, crlogin oder cssh weitergegeben, wenn das Dienstprogramm von CCP aus gestartet wird. Das Dienstprogramm ctelnet ignoriert diese Option.

Wenn die Option -l nicht angegeben ist, wird der Benutzername, der CCP gestartet hat, übernommen.

-p ssh-port

Gibt die zu verwendende Secure Shell-Portnummer an. Diese Option wird an das Dienstprogramm cssh weitergegeben, wenn das Dienstprogramm von CCP aus gestartet wird. Die Dienstprogramme cconsole, crlogin und ctelnet ignorieren diese Option.

Wenn die Option -p nicht angegeben ist, wird Portnummer 22 für sichere Verbindungen verwendet.

-s

Gibt an, dass anstelle von telnet-Verbindungen Secure Shell-Verbindungen zu Knotenkonsolen verwendet werden. Diese Option wird an das Dienstprogramm cconsole weitergegeben, wenn das Dienstprogramm von CCP aus gestartet wird. Die Dienstprogramme crlogin, cssh und ctelnet ignorieren diese Option.

Wenn die Option -s nicht angegeben ist, verwendet das cconsole-Dienstprogramm telnet-Verbindungen für Konsolenverbindungen.

Um die Option -s zu überschreiben, heben Sie im Menü "Optionen" der grafischen Benutzeroberfläche (GUI) von cconsole die Auswahl des Kontrollkästchens "SSH verwenden" auf.

cconsole(1M), crlogin(1M), cssh(1M) und ctelnet(1M)

Im folgenden überarbeiteten Abschnitt "Übersicht" sowie im neu hinzugefügten Abschnitt "Optionen" der hier zusammengefassten Manpages cconsole, crlogin, cssh und ctelnet wird die neue Secure Shell-Unterstützung für Cluster Control Panel-Dienstprogramme beschrieben:

SYNOPSIS


$CLUSTER_HOME/bin/cconsole [-s] [-l username] [clustername… | nodename…]
$CLUSTER_HOME/bin/crlogin [-l username] [clustername… | nodename…]
$CLUSTER_HOME/bin/cssh [-l username] [-p ssh-port] [clustername… | nodename…]
$CLUSTER_HOME/bin/ctelnet [clustername… | nodename…]

BESCHREIBUNG

cssh

Dieses Dienstprogramm stellt direkte Secure Shell-Verbindungen zu den Cluster-Knoten her.

OPTIONEN

-l username

Gibt den ssh-Benutzernamen für Remote-Verbindungen an. Diese Option ist mit den Befehlen cconsole, crlogin und cssh gültig.

Der Argumentwert wird gespeichert, sodass zu einem späteren Zeitpunkt angegebene Cluster und Knoten denselben Namen beim Verbindungsaufbau verwenden.

Wenn die Option -l nicht angegeben ist, wird der Benutzername, der den Befehl gestartet hat, übernommen.

-p ssh-port

Gibt die zu verwendende Secure Shell-Portnummer an. Diese Option ist mit dem Befehl cssh gültig.

Wenn die Option -p nicht angegeben ist, wird Portnummer 22 für sichere Verbindungen verwendet.

-s

Gibt an, dass anstelle von telnet-Verbindungen Secure Shell-Verbindungen zu Knotenkonsolen verwendet werden. Diese Option ist mit dem Befehl cconsole gültig.

Wenn die Option -s nicht angegeben ist, verwendet das Dienstprogramm telnet-Verbindungen für Konsolenverbindungen.

Um die Option -s von der grafischen Benutzeroberfläche (GUI) des Dienstprogramms cconsole aus zu überschreiben, heben Sie im Menü "Optionen" die Auswahl des Kontrollkästchens "SSH verwenden" auf.

clnode(1CL)

clresource(1CL)

clresourcegroup(1CL)

r_properties(5)

rt_properties(5)

Die Beschreibung der Ressourcentypeigenschaft Failover enthält eine falsche Anmerkung zur Unterstützung skalierbarer Dienste in nicht globalen Zonen in Sun Cluster 3.2. Diese Unterstützung ist für Ressourcen gewährleistet, deren Ressourcentypeigenschaft Failover als FALSCH und deren Ressourceneigenschaft Skalierbar als WAHR festgelegt ist.

serialports(4)

Die folgenden Informationen ergänzen den Abschnitt "Beschreibung" der Manpage serialport(4):

Um Secure Shell-Verbindungen zu Knotenkonsolen zu unterstützen, geben Sie in der Datei /etc/serialports den Namen des Konsolenzugriffsgeräts und die Secure Shell-Portnummer für jeden Knoten an. Wenn Sie die standardmäßige Secure Shell-Konfiguration auf dem Konsolenzugriffsgerät verwenden, geben Sie die Portnummer 22 an.

SUNW.Event(5)

Auf der Manpage SUNW.Event(5) fehlt die Anmerkung, dass unter Solaris 10 OS der Cluster Reconfiguration Notification Protocol (CRNP) ausschließlich in der globalen Zone ausgeführt werden kann.