Guide d'administration système d'Oracle® Solaris Cluster

Quitter la vue de l'impression

Mis à jour : Octobre 2015
 
 

Réinitialisation d'un cluster

Pour fermer un cluster global, exécutez la commande cluster shutdown puis initialisez le cluster global avec la commande boot sur chaque noeud. Pour arrêter un cluster de zones utilisez la commande clzonecluster halt, puis utilisez la commande clzonecluster boot pour initialiser le cluster de zones. Vous pouvez également utiliser la commande clzonecluster reboot. Pour plus d'informations, reportez-vous aux pages de manuel cluster(1CL), boot(1M) etclzonecluster(1CL).

L'élément phys-schost# fait référence à l'invite du cluster global. Appliquez cette procédure à un cluster global.

Cette procédure contient la forme longue des commandes d'Oracle Solaris Cluster. La plupart des commandes possèdent également des formes brèves. A l'exception de la forme du nom, ces commandes sont identiques.

  1. Si votre cluster exécute Oracle RAC, arrêtez toutes les instances de la base de données sur le cluster que vous arrêtez.

    Reportez-vous à la documentation produit d'Oracle RAC pour les procédures d'arrêt.

  2. Prenez un rôle octroyant une autorisation RBAC solaris.cluster.admin sur n'importe quel noeud du cluster.

    Effectuez toutes les étapes de cette procédure depuis un noeud du cluster global.

  3. Arrêtez le cluster.
    • Arrêtez le cluster global.
      phys-schost# cluster shutdown -g0 -y 
    • Si vous avez un cluster de zones, fermez le cluster de zones depuis un noeud du cluster global.
      phys-schost# clzonecluster halt zoneclustername

    Chaque noeud est arrêté. Vous pouvez également utiliser la commande cluster shutdown au sein d'un cluster de zones pour arrêter le cluster de zones.


    Remarque -  Les noeuds doivent disposer d'une connexion qui fonctionne avec l'interconnexion de cluster pour atteindre l'appartenance au cluster.
  4. Initialisez chaque noeud.

    L'ordre dans lequel les noeuds sont initialisés n'a pas d'importance, sauf si vous modifiez la configuration entre les fermetures. Si vous modifiez la configuration entre les fermetures, démarrez d'abord le noeud avec la configuration la plus récente.

    • Pour un noeud du cluster global d'un système SPARC, exécutez la commande suivante.

      ok boot
    • Pour un noeud du cluster global d'un système x86, exécutez les commandes suivantes.

      Lorsque le menu GRUB s'affiche, sélectionnez l'entrée SE Oracle Solaris appropriée, puis appuyez sur la touche Entrée.


    Remarque -  Les noeuds doivent disposer d'une connexion qui fonctionne avec l'interconnexion de cluster pour atteindre l'appartenance au cluster.

    Pour plus d'informations sur l'initialisation basée sur le GRUB, reportez-vous à la section Initialisation d’un système du manuel Initialisation et arrêt des systèmes Oracle Solaris 11.2 .

    • Pour un cluster de zones, entrez la commande suivante sur un noeud unique du cluster global pour initialiser le cluster de zones.

      phys-schost# clzonecluster boot zoneclustername

    Des messages apparaissent sur les consoles des noeuds initialisés en même temps que les composants du cluster sont activés.

  5. Vérifiez que les noeuds ont été initialisés sans erreur et sont en ligne.
    • La commande clnode status rapporte le statut des noeuds du cluster global.
      phys-schost# clnode status
    • L'exécution de la commande clzonecluster status sur un noeud du cluster global rapporte le statut des noeuds du cluster de zones.
      phys-schost# clzonecluster status

      Vous pouvez également exécuter la commande cluster status au sein d'un cluster de zones pour afficher le statut des noeuds.


      Remarque -  Si le système de fichiers /var se remplit, Oracle Solaris Cluster risque de ne pas pouvoir redémarrer sur ce noeud. Si ce problème survient, reportez-vous à la section Réparation d'un système de fichiers /var complet.
Exemple 3-6  Réinitialisation d'un cluster de zones

L'exemple suivant présente la procédure d'arrêt et d'initialisation d'un cluster de zones nommé sparse-sczone. Vous pouvez également utiliser la commande clzonecluster reboot.

phys-schost# clzonecluster halt sparse-sczone
Waiting for zone halt commands to complete on all the nodes of the zone cluster "sparse-sczone"...
Sep  5 19:17:46 schost-4 cl_runtime: NOTICE: Membership : Node 4 of cluster 'sparse-sczone' died.
Sep  5 19:17:46 schost-4 cl_runtime: NOTICE: Membership : Node 2 of cluster 'sparse-sczone' died.
Sep  5 19:17:46 schost-4 cl_runtime: NOTICE: Membership : Node 1 of cluster 'sparse-sczone' died.
Sep  5 19:17:46 schost-4 cl_runtime: NOTICE: Membership : Node 3 of cluster 'sparse-sczone' died.
phys-schost#
phys-schost# clzonecluster boot sparse-sczone
Waiting for zone boot commands to complete on all the nodes of the zone cluster "sparse-sczone"...
phys-schost# Sep  5 19:18:23 schost-4  cl_runtime: NOTICE: Membership : Node 1 of cluster
'sparse-sczone' joined.
Sep  5 19:18:23 schost-4 cl_runtime: NOTICE: Membership : Node 2 of cluster 'sparse-sczone' joined.
Sep  5 19:18:23 schost-4 cl_runtime: NOTICE: Membership : Node 3 of cluster 'sparse-sczone' joined.
Sep  5 19:18:23 schost-4 cl_runtime: NOTICE: Membership : Node 4 of cluster 'sparse-sczone' joined.

phys-schost#
phys-schost# clzonecluster status

=== Zone Clusters ===

--- Zone Cluster Status ---

Name            Node Name   Zone HostName   Status   Zone Status
----            ---------   -------------   ------   -----------
sparse-sczone   schost-1    sczone-1        Online   Running
                schost-2    sczone-2        Online   Running
                schost-3    sczone-3        Online   Running
                schost-4    sczone-4        Online   Running
phys-schost# 
Exemple 3-7  SPARC: Réinitialisation d'un cluster global

L'exemple suivant montre la sortie de console lorsque le fonctionnement normal du cluster global est interrompu, que tous les noeuds sont arrêtés et affichent l'invite ok et que le cluster global est redémarré. L'option –g0 définit la période de grâce sur zéro et l'option -y fournit une réponse oui automatique à la question de confirmation. Les messages d'arrêt apparaissent également sur les consoles des autres noeuds du cluster global.

phys-schost# cluster shutdown -g0 -y
Wed Mar 10 13:47:32 phys-schost-1 cl_runtime:
WARNING: CMM monitoring disabled.
phys-schost-1#
INIT: New run level: 0
The system is coming down.  Please wait.
...
The system is down.
syncing file systems... done
Program terminated
ok boot
Rebooting with command: boot
...
Hostname: phys-schost-1
Booting as part of a cluster
...
NOTICE: Node phys-schost-1: attempting to join cluster
...
NOTICE: Node phys-schost-2 (incarnation # 937690106) has become reachable.
NOTICE: Node phys-schost-3 (incarnation # 937690290) has become reachable.
NOTICE: cluster has reached quorum.
...
NOTICE: Cluster members: phys-schost-1 phys-schost-2 phys-schost-3.
...
NOTICE: Node phys-schost-1: joined cluster
...
The system is coming up.  Please wait.
checking ufs filesystems
...
reservation program successfully exiting
Print services started.
volume management starting.
The system is ready.
phys-schost-1 console login:
NOTICE: Node phys-schost-1: joined cluster
...
The system is coming up.  Please wait.
checking ufs filesystems
...
reservation program successfully exiting
Print services started.
volume management starting.
The system is ready.
phys-schost-1 console login: 
Exemple 3-8  x86: Réinitialisation d'un cluster

L'exemple suivant présente la sortie de console lorsque le fonctionnement normal du cluster est interrompu, que tous les noeuds sont arrêtés et que le cluster est redémarré. L'option –g0 définit la période de grâce sur zéro et l'option -y fournit une réponse yes automatique à la question de confirmation. Les messages d'arrêt apparaissent également sur les consoles des autres noeuds du cluster global.

# cluster shutdown -g0 -y
May  2 10:32:57 phys-schost-1 cl_runtime:
WARNING: CMM: Monitoring disabled.
root@phys-schost-1#
INIT: New run level: 0
The system is coming down.  Please wait.
System services are now being stopped.
/etc/rc0.d/K05initrgm: Calling clnode evacuate
failfasts already disabled on node 1
Print services already stopped.
May  2 10:33:13 phys-schost-1 syslogd: going down on signal 15
The system is down.
syncing file systems... done
Type any key to continue

ATI RAGE SDRAM BIOS P/N GR-xlint.007-4.330
*                                        BIOS Lan-Console 2.0
Copyright (C) 1999-2001  Intel Corporation
MAC ADDR: 00 02 47 31 38 3C
AMIBIOS (C)1985-2002 American Megatrends Inc.,
Copyright 1996-2002 Intel Corporation
SCB20.86B.1064.P18.0208191106
SCB2 Production BIOS Version 2.08
BIOS Build 1064
2 X Intel(R) Pentium(R) III CPU family      1400MHz
Testing system memory, memory size=2048MB
2048MB Extended Memory Passed
512K L2 Cache SRAM Passed
ATAPI CD-ROM SAMSUNG CD-ROM SN-124

Press <F2> to enter SETUP, <F12> Network

Adaptec AIC-7899 SCSI BIOS v2.57S4
(c) 2000 Adaptec, Inc. All Rights Reserved.
Press <Ctrl><A> for SCSISelect(TM) Utility!

Ch B,  SCSI ID: 0 SEAGATE  ST336605LC        160
SCSI ID: 1 SEAGATE  ST336605LC        160
SCSI ID: 6 ESG-SHV  SCA HSBP M18      ASYN
Ch A,  SCSI ID: 2 SUN      StorEdge 3310     160
SCSI ID: 3 SUN      StorEdge 3310     160

AMIBIOS (C)1985-2002 American Megatrends Inc.,
Copyright 1996-2002 Intel Corporation
SCB20.86B.1064.P18.0208191106
SCB2 Production BIOS Version 2.08
BIOS Build 1064

2 X Intel(R) Pentium(R) III CPU family      1400MHz
Testing system memory, memory size=2048MB
2048MB Extended Memory Passed
512K L2 Cache SRAM Passed
ATAPI CD-ROM SAMSUNG CD-ROM SN-124

SunOS - Intel Platform Edition             Primary Boot Subsystem, vsn 2.0

Current Disk Partition Information

Part#   Status    Type      Start       Length
================================================
1     Active   X86 BOOT     2428       21852
2              SOLARIS     24280     71662420
3              <unused> 
4              <unused>
Please select the partition you wish to boot: *       *

Solaris DCB

loading /solaris/boot.bin

SunOS Secondary Boot version 3.00

Solaris Intel Platform Edition Booting System

Autobooting from bootpath: /pci@0,0/pci8086,2545@3/pci8086,1460@1d/
pci8086,341a@7,1/sd@0,0:a

If the system hardware has changed, or to boot from a different
device, interrupt the autoboot process by pressing ESC.
Press ESCape to interrupt autoboot in 2 seconds.
Initializing system
Please wait...
Warning: Resource Conflict - both devices are added

NON-ACPI device: ISY0050
Port: 3F0-3F5, 3F7; IRQ: 6; DMA: 2
ACPI device: ISY0050
Port: 3F2-3F3, 3F4-3F5, 3F7; IRQ: 6; DMA: 2

<<< Current Boot Parameters >>>
Boot path: /pci@0,0/pci8086,2545@3/pci8086,1460@1d/pci8086,341a@7,1/
sd@0,0:a
Boot args:

Type    b [file-name] [boot-flags] <ENTER>  to boot with options
or      i <ENTER>                           to enter boot interpreter
or      <ENTER>                             to boot with defaults

<<< timeout in 5 seconds >>>

Select (b)oot or (i)nterpreter: b
Size: 275683 + 22092 + 150244 Bytes
/platform/i86pc/kernel/unix loaded - 0xac000 bytes used
SunOS Release 5.9 Version Generic_112234-07 32-bit
Copyright 1983-2003 Sun Microsystems, Inc.  All rights reserved.
Use is subject to license terms.
configuring IPv4 interfaces: e1000g2.
Hostname: phys-schost-1
Booting as part of a cluster
NOTICE: CMM: Node phys-schost-1 (nodeid = 1) with votecount = 1 added.
NOTICE: CMM: Node phys-schost-2 (nodeid = 2) with votecount = 1 added.
NOTICE: CMM: Quorum device 1 (/dev/did/rdsk/d1s2) added; votecount = 1, bitmask
of nodes with configured paths = 0x3.
NOTICE: clcomm: Adapter e1000g3 constructed
NOTICE: clcomm: Path phys-schost-1:e1000g3 - phys-schost-2:e1000g3 being constructed
NOTICE: clcomm: Path phys-schost-1:e1000g3 - phys-schost-2:e1000g3 being initiated
NOTICE: clcomm: Path phys-schost-1:e1000g3 - phys-schost-2:e1000g3 online
NOTICE: clcomm: Adapter e1000g0 constructed
NOTICE: clcomm: Path phys-schost-1:e1000g0 - phys-schost-2:e1000g0 being constructed
NOTICE: CMM: Node phys-schost-1: attempting to join cluster.
NOTICE: clcomm: Path phys-schost-1:e1000g0 - phys-schost-2:e1000g0 being initiated
NOTICE: CMM: Quorum device /dev/did/rdsk/d1s2: owner set to node 1.
NOTICE: CMM: Cluster has reached quorum.
NOTICE: CMM: Node phys-schost-1 (nodeid = 1) is up; new incarnation number = 1068496374.
NOTICE: CMM: Node phys-schost-2 (nodeid = 2) is up; new incarnation number = 1068496374.
NOTICE: CMM: Cluster members: phys-schost-1 phys-schost-2.
NOTICE: CMM: node reconfiguration #1 completed.
NOTICE: CMM: Node phys-schost-1: joined cluster.
WARNING: mod_installdrv: no major number for rsmrdt
ip: joining multicasts failed (18) on clprivnet0 - will use link layer
broadcasts for multicast
The system is coming up.  Please wait.
checking ufs filesystems
/dev/rdsk/c1t0d0s5: is clean.
NOTICE: clcomm: Path phys-schost-1:e1000g0 - phys-schost-2:e1000g0 online
NIS domain name is dev.eng.mycompany.com
starting rpc services: rpcbind keyserv ypbind done.
Setting netmask of e1000g2 to 192.168.255.0
Setting netmask of e1000g3 to 192.168.255.128
Setting netmask of e1000g0 to 192.168.255.128
Setting netmask of clprivnet0 to 192.168.255.0
Setting default IPv4 interface for multicast: add net 224.0/4: gateway phys-schost-1
syslog service starting.
obtaining access to all attached disks


*****************************************************************************
*
* The X-server can not be started on display :0...
*
*****************************************************************************
volume management starting.
Starting Fault Injection Server...
The system is ready.

phys-schost-1 console login: