Sun Cluster Handbuch Systemverwaltung für Solaris OS

Überblick über das Herunterfahren und Booten eines Clusters

Der Sun Cluster-scshutdown(1M)-Befehl stoppt die Cluster-Dienste auf geordnete Weise und fährt den gesamten Cluster sauber herunter. Sie können den scshutdown-Befehl für einen Standordwechsel des Clusters verwenden. Sie können den Befehl auch zum Herunterfahren des Clusters einsetzen, wenn aufgrund eines Anwendungsfehlers Schäden an den Daten aufgetreten sind.


Hinweis –

Mit dem scshutdown-Befehl anstelle des shutdown- oder des halt-Befehls stellen Sie ein einwandfreies Herunterfahren des ganzen Clusters sicher. Der Solaris-shutdown-Befehl wird mit dem scswitch(1M)-Befehl zum Herunterfahren einzelner Knoten verwendet. Weitere Informationen finden Sie unter So fahren Sie einen Cluster herunter oder Herunterfahren und Booten eines einzelnen Cluster-Knotens.


Der scshutdown-Befehl stoppt alle Knoten in einem Cluster durch folgende Aktionen:

  1. Offline-nehmen aller laufenden Ressourcengruppen,

  2. Aushängen aller Cluster-Dateisysteme,

  3. Schließen der aktiven Gerätedienste,

  4. Ausführen von init 0 und Zurückführen aller Knoten zur OpenBootTM PROM ok-Eingabeaufforderung in einem SPARC-basierten System, oder in ein Boot-Subsystem bei einem x86-basierten System. Boot-Subsysteme werden ausführlicher unter “Boot Subsystems” in System Administration Guide: Basic Administration beschrieben.


Hinweis –

Bei Bedarf können Sie einen Knoten im Nicht-Cluster-Modus booten, so dass der Knoten nicht an der Cluster-Mitgliedschaft teilnimmt. Der Nicht-Cluster-Modus ist beim Installieren von Cluster-Software oder dem Ausführen bestimmter Verwaltungsverfahren nützlich. Weitere Informationen finden Sie unter So booten Sie einen Cluster-Knoten im Nicht-Cluster-Modus.


Tabelle 3–1 Aufgabenliste: Herunterfahren und Booten eines Clusters

Schritt  

Anweisungen siehe  

Stoppen des Clusters 

    - Verwenden Sie scshutdown(1M)

Siehe So fahren Sie einen Cluster herunter

Starten des Clusters durch Booten aller Knoten  

Die Knoten müssen eine funktionierende Verbindung zum Cluster-Interconnect haben, um die Cluster-Mitgliedschaft zu erlangen.  

Siehe So booten Sie einen Cluster

Neubooten des Clusters 

    - Verwenden Sie scshutdown

An der ok-Eingabeaufforderung oder der Select (b)oot or (i)nterpreter-Eingabeaufforderung im aktuellen Boot-Parameter-Bildschirm booten Sie jeden Knoten einzeln mit dem boot(1M)- oder dem b-Befehl.

Die Knoten müssen eine funktionierende Verbindung zum Cluster-Interconnect haben, um die Cluster-Mitgliedschaft zu erlangen.  

Siehe So booten Sie einen Cluster neu

So fahren Sie einen Cluster herunter


Achtung – Achtung –

Arbeiten Sie auf einer Cluster-Konsole nicht mit dem send brk-Befehl, um einen Cluster-Knoten herunterzufahren. Dieser Befehl wird in einem Cluster nicht unterstützt.


  1. SPARC: Werden Oracle Parallel Server oder Real Application Clusters auf dem Cluster ausgeführt, beenden Sie alle Datenbankinstanzen.

    Verfahren zum Herunterfahren finden Sie in der Oracle Parallel Server/Real Application Clusters-Produktdokumentation.

  2. Melden Sie sich bei einem Cluster-Knoten als Superbenutzer an.

  3. Fahren Sie den Cluster sofort herunter.

    Geben Sie an einem einzelnen Knoten im Cluster folgenden Befehl ein:


    # scshutdown -g0 -y
    

  4. Prüfen Sie, ob alle Knoten in einem SPARC-basierten System an der ok-Eingabeaufforderung stehen bzw. sich in einem x86-basierten System in einem Boot-Subsystem befinden.

    Schalten Sie keinen Knoten ab, solange nicht alle Cluster-Knoten an der ok-Eingabeaufforderung (in einem SPARC-basierten System) stehen bzw. sich in einem Boot-Subsystem (in einem x86-basierten System) befinden.

  5. Schalten Sie die Knoten bei Bedarf ab.

SPARC: Beispiel — Herunterfahren eines Clusters

Das nachstehende Beispiel zeigt die Konsolenausgabe an, wenn der normale Cluster-Betrieb gestoppt und alle Knoten heruntergefahren werden, so dass die ok-Eingabeaufforderung angezeigt wird. Die Option -g 0 stellt die Toleranzzeit beim Herunterfahren auf Null ein, und -y sorgt für eine automatische yes-Antwort auf die Bestätigungsabfrage. Die Meldungen zum Herunterfahren werden auch auf den Konsolen der restlichen Knoten im Cluster angezeigt.


# scshutdown -g0 -y
Wed Mar 10 13:47:32 phys-schost-1 cl_runtime:
WARNING: CMM monitoring disabled.
phys-schost-1#
INIT: New run level: 0
The system is coming down.  Please wait.
System services are now being stopped.
/etc/rc0.d/K05initrgm: Calling scswitch -S (evacuate)
The system is down.
syncing file systems... done
Program terminated
ok 

x86: Beispiel — Herunterfahren eines Clusters

Das nachstehende Beispiel zeigt die Konsolenausgabe an, wenn der normale Clusterbetrieb gestoppt und alle Knoten heruntergefahren werden. Die Option -g 0 stellt die Toleranzzeit beim Herunterfahren auf Null ein, und -y sorgt für eine automatische yes-Antwort auf die Bestätigungsabfrage. Die Meldungen zum Herunterfahren werden auch auf den Konsolen der restlichen Knoten im Cluster angezeigt.


# scshutdown -g0 -y
May  2 10:32:57 phys-schost-1 cl_runtime:
WARNING: CMM: Monitoring disabled.
root@phys-schost-1#
INIT: New run level: 0
The system is coming down.  Please wait.
System services are now being stopped.
/etc/rc0.d/K05initrgm: Calling scswitch -S (evacuate)
failfasts already disabled on node 1
Print services already stopped.
May  2 10:33:13 phys-schost-1 syslogd: going down on signal 15
The system is down.
syncing file systems... done
Type any key to continue 

Weiterführende Informationen

Informationen zum Neustarten eines heruntergefahrenen Clusters finden Sie unter So booten Sie einen Cluster.

So booten Sie einen Cluster

  1. Zum Starten eines Clusters, dessen Knoten heruntergefahren wurden und an der ok-Eingabeaufforderung oder an der Select (b)oot or (i)nterpreter-Eingabeaufforderung des Bildschirms mit den aktuellen Boot-Parametern stehen, führen Sie auf jedem Knoten boot(1M) aus.

    Wenn Sie Konfigurationsänderungen zwischen den einzelnen Vorgängen zum Herunterfahren durchführen, starten Sie zuerst den Knoten mit der aktuellsten Konfiguration. Mit Ausnahme dieses Falls hat die Boot-Reihenfolge der Knoten keine Bedeutung.

    • SPARC:


      ok boot
      

    • x86:


                            <<< Current Boot Parameters >>>
      Boot path: /pci@0,0/pci8086,2545@3/pci8086,1460@1d/pci8086,341a@7,1/
      sd@0,0:a
      Boot args:
      
      Type    b [file-name] [boot-flags] <ENTER>  to boot with options
      or      i <ENTER>                           to enter boot interpreter
      or      <ENTER>                             to boot with defaults
      
                        <<< timeout in 5 seconds >>>
      Select (b)oot or (i)nterpreter: b
      

    Auf den Konsolen der gebooteten Knoten werden beim Aktivieren der Cluster-Komponenten Meldungen angezeigt.


    Hinweis –

    Cluster-Knoten müssen eine funktionierende Verbindung zum Cluster-Interconnect haben, um die Cluster-Mitgliedschaft zu erlangen.


  2. Überprüfen Sie, ob alle Knoten fehlerfrei gebootet wurden und online sind.

    Der scstat(1M)-Befehl gibt den Status der Knoten zurück.


     # scstat -n
    


    Hinweis –

    Wenn das /var-Dateisystem eines Cluster-Knotens voll wird, kann Sun Cluster auf dem Knoten möglicherweise nicht neu gestartet werden. Wenn dieses Problem auftritt, gehen Sie zum Abschnitt So reparieren Sie ein volles /var-Dateisystem.


SPARC: Beispiel — Booten eines Clusters

Das nachstehende Beispiel zeigt die Konsolenausgabe beim Start des Knotens phys-schost-1 in einem Cluster. Ähnliche Meldungen werden auf den Konsolen der restlichen Knoten im Cluster angezeigt.


ok boot
Rebooting with command: boot
...
Hostname: phys-schost-1
Booting as part of a cluster
NOTICE: Node phys-schost-1 with votecount = 1 added.
NOTICE: Node phys-schost-2 with votecount = 1 added.
NOTICE: Node phys-schost-3 with votecount = 1 added.
...
NOTICE: Node phys-schost-1: attempting to join cluster
...
NOTICE: Node phys-schost-2 (incarnation # 937690106) has become reachable.
NOTICE: Node phys-schost-3 (incarnation # 937690290) has become reachable.
NOTICE: cluster has reached quorum.
NOTICE: node phys-schost-1 is up; new incarnation number = 937846227.
NOTICE: node phys-schost-2 is up; new incarnation number = 937690106.
NOTICE: node phys-schost-3 is up; new incarnation number = 937690290.
NOTICE: Cluster members: phys-schost-1 phys-schost-2 phys-schost-3.
...

x86: Beispiel — Booten eines Clusters

Das nachstehende Beispiel zeigt die Konsolenausgabe beim Start des Knotens phys-schost-1 in einem Cluster. Ähnliche Meldungen werden auf den Konsolen der restlichen Knoten im Cluster angezeigt.


ATI RAGE SDRAM BIOS P/N GR-xlint.007-4.330
*                                        BIOS Lan-Console 2.0
Copyright (C) 1999-2001  Intel Corporation
MAC ADDR: 00 02 47 31 38 3C
AMIBIOS (C)1985-2002 American Megatrends Inc.,
Copyright 1996-2002 Intel Corporation
SCB20.86B.1064.P18.0208191106
SCB2 Production BIOS Version 2.08
BIOS Build 1064
2 X Intel(R) Pentium(R) III CPU family      1400MHz
Testing system memory, memory size=2048MB
2048MB Extended Memory Passed
512K L2 Cache SRAM Passed
ATAPI CD-ROM SAMSUNG CD-ROM SN-124

Press <F2> to enter SETUP, <F12> Network

Adaptec AIC-7899 SCSI BIOS v2.57S4
(c) 2000 Adaptec, Inc. All Rights Reserved.
    Press <Ctrl><A> for SCSISelect(TM) Utility!

Ch B,  SCSI ID: 0 SEAGATE  ST336605LC        160
       SCSI ID: 1 SEAGATE  ST336605LC        160
       SCSI ID: 6 ESG-SHV  SCA HSBP M18      ASYN
Ch A,  SCSI ID: 2 SUN      StorEdge 3310     160
       SCSI ID: 3 SUN      StorEdge 3310     160

AMIBIOS (C)1985-2002 American Megatrends Inc.,
Copyright 1996-2002 Intel Corporation
SCB20.86B.1064.P18.0208191106
SCB2 Production BIOS Version 2.08
BIOS Build 1064

2 X Intel(R) Pentium(R) III CPU family      1400MHz
Testing system memory, memory size=2048MB
2048MB Extended Memory Passed
512K L2 Cache SRAM Passed
ATAPI CD-ROM SAMSUNG CD-ROM SN-124

SunOS - Intel Platform Edition             Primary Boot Subsystem, vsn 2.0

                        Current Disk Partition Information

                 Part#   Status    Type      Start       Length
                ================================================
                   1     Active   X86 BOOT     2428       21852
                   2              SOLARIS     24280     71662420
                   3              <unused> 
                   4              <unused>
              Please select the partition you wish to boot: *       *

Solaris DCB

			       loading /solaris/boot.bin

SunOS Secondary Boot version 3.00

                  Solaris Intel Platform Edition Booting System

Autobooting from bootpath: /pci@0,0/pci8086,2545@3/pci8086,1460@1d/
pci8086,341a@7,1/sd@0,0:a

If the system hardware has changed, or to boot from a different
device, interrupt the autoboot process by pressing ESC.
Press ESCape to interrupt autoboot in 2 seconds.
Initializing system
Please wait...
Warning: Resource Conflict - both devices are added

NON-ACPI device: ISY0050
     Port: 3F0-3F5, 3F7; IRQ: 6; DMA: 2
ACPI device: ISY0050
     Port: 3F2-3F3, 3F4-3F5, 3F7; IRQ: 6; DMA: 2

                     <<< Current Boot Parameters >>>
Boot path: /pci@0,0/pci8086,2545@3/pci8086,1460@1d/pci8086,341a@7,1/
sd@0,0:a
Boot args:

Type    b [file-name] [boot-flags] <ENTER>  to boot with options
or      i <ENTER>                           to enter boot interpreter
or      <ENTER>                             to boot with defaults

                  <<< timeout in 5 seconds >>>

Select (b)oot or (i)nterpreter:
Size: 275683 + 22092 + 150244 Bytes
/platform/i86pc/kernel/unix loaded - 0xac000 bytes used
SunOS Release 5.9 Version Generic_112234-07 32-bit
Copyright 1983-2003 Sun Microsystems, Inc.  All rights reserved.
Use is subject to license terms.
configuring IPv4 interfaces: e1000g2.
Hostname: phys-schost-1
Booting as part of a cluster
NOTICE: CMM: Node phys-schost-1 (nodeid = 1) with votecount = 1 added.
NOTICE: CMM: Node phys-schost-2 (nodeid = 2) with votecount = 1 added.
NOTICE: CMM: Quorum device 1 (/dev/did/rdsk/d1s2) added; votecount = 1, bitmask
of nodes with configured paths = 0x3.
NOTICE: clcomm: Adapter e1000g3 constructed
NOTICE: clcomm: Path phys-schost-1:e1000g3 - phys-schost-2:e1000g3 being constructed
NOTICE: clcomm: Path phys-schost-1:e1000g3 - phys-schost-2:e1000g3 being initiated
NOTICE: clcomm: Path phys-schost-1:e1000g3 - phys-schost-2:e1000g3 online
NOTICE: clcomm: Adapter e1000g0 constructed
NOTICE: clcomm: Path phys-schost-1:e1000g0 - phys-schost-2:e1000g0 being constructed
NOTICE: CMM: Node phys-schost-1: attempting to join cluster.
NOTICE: clcomm: Path phys-schost-1:e1000g0 - phys-schost-2:e1000g0 being initiated
NOTICE: CMM: Quorum device /dev/did/rdsk/d1s2: owner set to node 1.
NOTICE: CMM: Cluster has reached quorum.
NOTICE: CMM: Node phys-schost-1 (nodeid = 1) is up; new incarnation number = 1068496374.
NOTICE: CMM: Node phys-schost-2 (nodeid = 2) is up; new incarnation number = 1068496374.
NOTICE: CMM: Cluster members: phys-schost-1 phys-schost-2.
NOTICE: CMM: node reconfiguration #1 completed.
NOTICE: CMM: Node phys-schost-1: joined cluster.

So booten Sie einen Cluster neu

Führen Sie den scshutdown( 1M)-Befehl aus, um den Cluster herunterzufahren. Booten Sie dann den Cluster mit dem boot( 1M)-Befehl auf jedem Knoten.

  1. SPARC: Wird Oracle Parallel Server/Real Application Clusters auf dem Cluster ausgeführt, beenden Sie alle Datenbankinstanzen.

    Verfahren zum Herunterfahren finden Sie in der Oracle Parallel Server/Real Application Clusters-Produktdokumentation.

  2. Melden Sie sich bei einem Cluster-Knoten als Superbenutzer an.

  3. Fahren Sie den Cluster herunter.

    Geben Sie an einem einzelnen Knoten im Cluster folgenden Befehl ein:


    # scshutdown -g0 -y 
    

    Jeder Knoten wird heruntergefahren.


    Hinweis –

    Cluster-Knoten müssen eine funktionierende Verbindung zum Cluster-Interconnect haben, um die Cluster-Mitgliedschaft zu erlangen.


  4. Booten Sie jeden Knoten.

    Die Boot-Reihenfolge der Knoten spielt keine Rolle, es sei denn, Sie führen zwischen den einzelnen Vorgängen zum Herunterfahren Konfigurationsänderungen durch. Wenn Sie Konfigurationsänderungen zwischen den einzelnen Vorgängen zum Herunterfahren durchführen, starten Sie zuerst den Knoten mit der aktuellsten Konfiguration.

    • SPARC:


      ok boot
      

    • x86:


                            <<< Current Boot Parameters >>>
      Boot path: /pci@0,0/pci8086,2545@3/pci8086,1460@1d/pci8086,341a@7,1/
      sd@0,0:a
      Boot args:
      
      Type    b [file-name] [boot-flags] <ENTER>  to boot with options
      or      i <ENTER>                           to enter boot interpreter
      or      <ENTER>                             to boot with defaults
      
                        <<< timeout in 5 seconds >>>
      Select (b)oot or (i)nterpreter: b
      

    Auf den Konsolen der gebooteten Knoten werden beim Aktivieren der Cluster-Komponenten Meldungen angezeigt.

  5. Überprüfen Sie, ob alle Knoten fehlerfrei gebootet wurden und online sind.

    Der scstat-Befehl gibt den Status des Knotens zurück.


    # scstat -n
    


    Hinweis –

    Wenn das /var-Dateisystem eines Cluster-Knotens voll wird, kann Sun Cluster auf dem Knoten möglicherweise nicht neu gestartet werden. Wenn dieses Problem auftritt, gehen Sie zum Abschnitt So reparieren Sie ein volles /var-Dateisystem.


SPARC: Beispiel — Neubooten eines Clusters

Das nachstehende Beispiel zeigt die Konsolenausgabe, wenn ein normaler Cluster-Betrieb gestoppt wird, alle Knoten zur ok-Eingabeaufforderung heruntergefahren werden und der Cluster dann neu gestartet wird. Die Option -g 0 stellt die Toleranzzeit auf Null ein, und -y sorgt für eine automatische yes-Antwort auf die Bestätigungsfrage. Die Meldungen zum Herunterfahren werden auch auf den Konsolen der restlichen Knoten im Cluster angezeigt.


# scshutdown -g0 -y
Wed Mar 10 13:47:32 phys-schost-1 cl_runtime:
WARNING: CMM monitoring disabled.
phys-schost-1#
INIT: New run level: 0
The system is coming down.  Please wait.
...
The system is down.
syncing file systems... done
Program terminated
ok boot
Rebooting with command: boot
...
Hostname: phys-schost-1
Booting as part of a cluster
...
NOTICE: Node phys-schost-1: attempting to join cluster
...
NOTICE: Node phys-schost-2 (incarnation # 937690106) has become reachable.
NOTICE: Node phys-schost-3 (incarnation # 937690290) has become reachable.
NOTICE: cluster has reached quorum.
...
NOTICE: Cluster members: phys-schost-1 phys-schost-2 phys-schost-3.
...
NOTICE: Node phys-schost-1: joined cluster
...
The system is coming up.  Please wait.
checking ufs filesystems
...
reservation program successfully exiting
Print services started.
volume management starting.
The system is ready.
phys-schost-1 console login:
NOTICE: Node phys-schost-1: joined cluster
...
The system is coming up.  Please wait.
checking ufs filesystems
...
reservation program successfully exiting
Print services started.
volume management starting.
The system is ready.
phys-schost-1 console login: 

x86: Beispiel — Neubooten eines Clusters

Das nachstehende Beispiel zeigt die Konsolenausgabe, wenn ein normaler Cluster-Betrieb gestoppt wird, alle Knoten heruntergefahren werden und der Cluster dann neu gestartet wird. Die Option -g 0 stellt die Toleranzzeit auf Null ein, und -y sorgt für eine automatische yes-Antwort auf die Bestätigungsabfrage. Die Meldungen zum Herunterfahren werden auch auf den Konsolen der restlichen Knoten im Cluster angezeigt.


# scshutdown -g0 -y
May  2 10:32:57 phys-schost-1 cl_runtime:
WARNING: CMM: Monitoring disabled.
root@phys-schost-1#
INIT: New run level: 0
The system is coming down.  Please wait.
System services are now being stopped.
/etc/rc0.d/K05initrgm: Calling scswitch -S (evacuate)
failfasts already disabled on node 1
Print services already stopped.
May  2 10:33:13 phys-schost-1 syslogd: going down on signal 15
The system is down.
syncing file systems... done
Type any key to continue

ATI RAGE SDRAM BIOS P/N GR-xlint.007-4.330
*                                        BIOS Lan-Console 2.0
Copyright (C) 1999-2001  Intel Corporation
MAC ADDR: 00 02 47 31 38 3C
AMIBIOS (C)1985-2002 American Megatrends Inc.,
Copyright 1996-2002 Intel Corporation
SCB20.86B.1064.P18.0208191106
SCB2 Production BIOS Version 2.08
BIOS Build 1064
2 X Intel(R) Pentium(R) III CPU family      1400MHz
Testing system memory, memory size=2048MB
2048MB Extended Memory Passed
512K L2 Cache SRAM Passed
ATAPI CD-ROM SAMSUNG CD-ROM SN-124

Press <F2> to enter SETUP, <F12> Network

Adaptec AIC-7899 SCSI BIOS v2.57S4
(c) 2000 Adaptec, Inc. All Rights Reserved.
    Press <Ctrl><A> for SCSISelect(TM) Utility!

Ch B,  SCSI ID: 0 SEAGATE  ST336605LC        160
       SCSI ID: 1 SEAGATE  ST336605LC        160
       SCSI ID: 6 ESG-SHV  SCA HSBP M18      ASYN
Ch A,  SCSI ID: 2 SUN      StorEdge 3310     160
       SCSI ID: 3 SUN      StorEdge 3310     160

AMIBIOS (C)1985-2002 American Megatrends Inc.,
Copyright 1996-2002 Intel Corporation
SCB20.86B.1064.P18.0208191106
SCB2 Production BIOS Version 2.08
BIOS Build 1064

2 X Intel(R) Pentium(R) III CPU family      1400MHz
Testing system memory, memory size=2048MB
2048MB Extended Memory Passed
512K L2 Cache SRAM Passed
ATAPI CD-ROM SAMSUNG CD-ROM SN-124

SunOS - Intel Platform Edition             Primary Boot Subsystem, vsn 2.0

                        Current Disk Partition Information

                 Part#   Status    Type      Start       Length
                ================================================
                   1     Active   X86 BOOT     2428       21852
                   2              SOLARIS     24280     71662420
                   3              <unused> 
                   4              <unused>
              Please select the partition you wish to boot: *       *

Solaris DCB

			       loading /solaris/boot.bin

SunOS Secondary Boot version 3.00

                  Solaris Intel Platform Edition Booting System

Autobooting from bootpath: /pci@0,0/pci8086,2545@3/pci8086,1460@1d/
pci8086,341a@7,1/sd@0,0:a

If the system hardware has changed, or to boot from a different
device, interrupt the autoboot process by pressing ESC.
Press ESCape to interrupt autoboot in 2 seconds.
Initializing system
Please wait...
Warning: Resource Conflict - both devices are added

NON-ACPI device: ISY0050
     Port: 3F0-3F5, 3F7; IRQ: 6; DMA: 2
ACPI device: ISY0050
     Port: 3F2-3F3, 3F4-3F5, 3F7; IRQ: 6; DMA: 2

                     <<< Current Boot Parameters >>>
Boot path: /pci@0,0/pci8086,2545@3/pci8086,1460@1d/pci8086,341a@7,1/
sd@0,0:a
Boot args:

Type    b [file-name] [boot-flags] <ENTER>  to boot with options
or      i <ENTER>                           to enter boot interpreter
or      <ENTER>                             to boot with defaults

                  <<< timeout in 5 seconds >>>

Select (b)oot or (i)nterpreter: b
Size: 275683 + 22092 + 150244 Bytes
/platform/i86pc/kernel/unix loaded - 0xac000 bytes used
SunOS Release 5.9 Version Generic_112234-07 32-bit
Copyright 1983-2003 Sun Microsystems, Inc.  All rights reserved.
Use is subject to license terms.
configuring IPv4 interfaces: e1000g2.
Hostname: phys-schost-1
Booting as part of a cluster
NOTICE: CMM: Node phys-schost-1 (nodeid = 1) with votecount = 1 added.
NOTICE: CMM: Node phys-schost-2 (nodeid = 2) with votecount = 1 added.
NOTICE: CMM: Quorum device 1 (/dev/did/rdsk/d1s2) added; votecount = 1, bitmask
of nodes with configured paths = 0x3.
NOTICE: clcomm: Adapter e1000g3 constructed
NOTICE: clcomm: Path phys-schost-1:e1000g3 - phys-schost-2:e1000g3 being constructed
NOTICE: clcomm: Path phys-schost-1:e1000g3 - phys-schost-2:e1000g3 being initiated
NOTICE: clcomm: Path phys-schost-1:e1000g3 - phys-schost-2:e1000g3 online
NOTICE: clcomm: Adapter e1000g0 constructed
NOTICE: clcomm: Path phys-schost-1:e1000g0 - phys-schost-2:e1000g0 being constructed
NOTICE: CMM: Node phys-schost-1: attempting to join cluster.
NOTICE: clcomm: Path phys-schost-1:e1000g0 - phys-schost-2:e1000g0 being initiated
NOTICE: CMM: Quorum device /dev/did/rdsk/d1s2: owner set to node 1.
NOTICE: CMM: Cluster has reached quorum.
NOTICE: CMM: Node phys-schost-1 (nodeid = 1) is up; new incarnation number = 1068496374.
NOTICE: CMM: Node phys-schost-2 (nodeid = 2) is up; new incarnation number = 1068496374.
NOTICE: CMM: Cluster members: phys-schost-1 phys-schost-2.
NOTICE: CMM: node reconfiguration #1 completed.
NOTICE: CMM: Node phys-schost-1: joined cluster.
WARNING: mod_installdrv: no major number for rsmrdt
ip: joining multicasts failed (18) on clprivnet0 - will use link layer
broadcasts for multicast
The system is coming up.  Please wait.
checking ufs filesystems
/dev/rdsk/c1t0d0s5: is clean.
NOTICE: clcomm: Path phys-schost-1:e1000g0 - phys-schost-2:e1000g0 online
NIS domain name is dev.eng.mycompany.com
starting rpc services: rpcbind keyserv ypbind done.
Setting netmask of e1000g2 to 255.255.255.0
Setting netmask of e1000g3 to 255.255.255.128
Setting netmask of e1000g0 to 255.255.255.128
Setting netmask of clprivnet0 to 255.255.255.0
Setting default IPv4 interface for multicast: add net 224.0/4: gateway phys-schost-1
syslog service starting.
obtaining access to all attached disks


*****************************************************************************
*
* The X-server can not be started on display :0...
*
*****************************************************************************
volume management starting.
Starting Fault Injection Server...
The system is ready.

phys-schost-1 console login: