JavaScript is required to for searching.
Omitir Vínculos de navegación
Salir de la Vista de impresión
Guía de administración del sistema de Oracle Solaris Cluster     Oracle Solaris Cluster (Español)
search filter icon
search icon

Información del documento

Prefacio

1.  Introducción a la administración de Oracle Solaris Cluster

Introducción a la administración de Oracle Solaris Cluster

Trabajo con un clúster de zona

Restricciones de las funciones del sistema operativo Oracle Solaris

Herramientas de administración

Interfaz gráfica de usuario

Interfaz de línea de comandos

Preparación para administrar el clúster

Documentación de las configuraciones de hardware de Oracle Solaris Cluster

Uso de la consola de administración

Copia de seguridad del clúster

Procedimiento para empezar a administrar el clúster

Inicio de sesión remota en el clúster

Conexión segura a las consolas del clúster

Obtención de acceso a las utilidades de configuración del clúster

Visualización de la información de parches de Oracle Solaris Cluster

Visualización de la información de versión de Oracle Solaris Cluster

Visualización de tipos de recursos configurados, grupos de recursos y recursos

Comprobación del estado de los componentes del clúster

Comprobación del estado de la red pública

Visualización de la configuración del clúster

Validación de una configuración básica de clúster

Comprobación de los puntos de montaje globales

Visualización del contenido de los registros de comandos de Oracle Solaris Cluster

2.  Oracle Solaris Cluster y RBAC

3.  Cierre y arranque de un clúster

4.  Métodos de replicación de datos

5.  Administración de dispositivos globales, supervisión de rutas de disco y sistemas de archivos de clúster

6.  Administración de quórum

7.  Administración de interconexiones de clústers y redes públicas

8.  Adición y eliminación de un nodo

9.  Administración del clúster

10.  Configuración del control del uso de la CPU

11.  Aplicación de parches en el software y el firmware de Oracle Solaris Cluster

12.  Copias de seguridad y restauraciones de clústers

13.  Administración de Oracle Solaris Cluster con las interfaces gráficas de usuario

A.  Ejemplo

Índice

Procedimiento para empezar a administrar el clúster

La Tabla 1-2 proporciona un punto de partida para administrar el clúster.


Nota - Los comandos de Oracle Solaris Cluster que sólo ejecuta desde el nodo de votación del clúster global no son válidos para los clústeres de zona. Consulte la página de comando man de Oracle Solaris Cluster para obtener información sobre la validez del uso de un comando en zonas.


Tabla 1-2 Herramientas de administración de Oracle Solaris Cluster

Tarea
Herramienta
Instrucciones
Iniciar sesión en el clúster de forma remota
Utilice el comando ccp para iniciar la ejecución del panel de control del clúster. A continuación seleccione uno de los siguientes iconos: cconsole, crlogin, cssh o ctelnet.
Configurar el clúster de forma interactiva
Inicie la unidad clzonecluster(1CL) o la utilidad clsetup(1CL).
Mostrar información sobre el número y la versión de Oracle Solaris Cluster
Utilice el comando clnode(1CL) con el subcomando y la opción show-rev -v -nodo.
Mostrar los recursos, grupos de recursos y tipos de recursos instalados
Utilice los comandos siguientes para mostrar la información sobre recursos:
Supervisar los componentes del clúster de forma gráfica
Utilice Oracle Solaris Cluster Manager.
Consulte la ayuda en línea.
Administrar gráficamente algunos componentes del clúster
Utilice el módulo de Oracle Solaris Cluster Manager o Oracle Solaris Cluster con Sun Management Center, disponible sólo con Oracle Solaris Cluster en los sistemas basados en SPARC.
Para Oracle Solaris Cluster Manager, consulte la ayuda en línea

Para Sun Management Center, consulte la documentación de Sun Management Center

Comprobar el estado de los componentes del clúster
Utilice el comando cluster(1CL) con el subcomando status.
Comprobar el estado de los grupos de varias rutas IP en la red pública
En un clúster global, utilice el comando clnode(1CL) status con la opción -m.

En un clúster de zona, utilice el comando clzonecluster(1CL) show.

Ver la configuración del clúster
En un clúster global, utilice el comando cluster(1CL) con el subcomando show.

En un clúster de zona, utilice el comando clzonecluster(1CL) con el subcomando show.

Ver y mostrar los dispositivos NAS configurados
En un clúster de zona o en un clúster global, utilice el comando clzonecluster(1CL) con el subcomando show.
Comprobar los puntos de montaje globales o verificar la configuración del clúster
En un clúster global, utilice el comando cluster(1CL)cluster (1CL) con el subcomando check.

En un clúster de zona, utilice el comando clzonecluster(1CL) verify.

Examinar el contenido de los registros de comandos de Oracle Solaris Cluster
Examine el archivo /var/cluster/logs/ commandlog.
Examinar los mensajes del sistema del Oracle Solaris Cluster
Examine el archivo /var/adm/messages.
Supervisar el estado de Solaris Volume Manager
Utilice el comando metastat.

Inicio de sesión remota en el clúster

El panel de control del clúster ofrece un launchpad para las herramientas cconsole, crlogin, cssh y ctelnet. Todas las herramientas inician una conexión de varias ventanas con un conjunto de nodos especificados. La conexión de varias ventanas consta de una ventana host para cada uno de los nodos indicados y una ventana común. Las entradas recibidas en la ventana común se envían a cada una de las ventanas del host; de este modo, se pueden ejecuta comandos simultáneamente en todos los nodos del clúster.

También puede iniciar sesiones de cconsole, crlogin, cssh o ctelnet desde la línea de comandos.

La utilidad cconsole emplea de forma predeterminada una conexión telnet con las consolas de los nodos. Para establecer conexiones de shell seguro con las consolas, en el menú Opciones de la ventana cconsole habilite la casilla de verificación Usar SSH. También puede indicar la opción -s al ejecutar el comando ccp o cconsole.

Para obtener más información, consulte las páginas de comando man ccp(1M) y cconsole(1M).

phys-schost# refleja un indicador de clúster global. Siga este procedimiento en un clúster global.

Este procedimiento proporciona las formas largas de los comandos Oracle Solaris Cluster. La mayoría de los comandos también tienen una forma corta. A excepción de las formas de los nombres de comandos, los comandos son idénticos.

Antes de empezar

Antes de iniciar el panel de control del clúster, compruebe que se cumplan los requisitos siguientes:

  1. Si dispone de una plataforma Servidor Sun Enterprise 10000, inicie sesión en el procesador de servicios del sistema.
    1. Establezca la conexión con el comando netcon.
    2. Una vez establecida la conexión, escriba Shift~@ para desbloquear la consola y obtener acceso de escritura.
  2. Desde la consola de administración, inicie el launchpad del panel de control del clúster.
    phys-schost# ccp clustername

    Se muestra el launchpad del panel de control del clúster.

  3. Para iniciar una sesión remota con el clúster, haga clic en el icono de cconsole, crlogin, cssh o ctelnet en el launchpad del panel de control del clúster.

Conexión segura a las consolas del clúster

Lleve a cabo este procedimiento para establecer conexiones de shell seguro con las consolas de los nodos del clúster.

Antes de empezar

Configure los archivos clusters, serialports y nsswitch.conf si utiliza un concentrador de terminales. Los archivos pueden ser archivos /etc, o bases de datos NIS o NIS+.


Nota - En el archivo serialports, asigne el número de puerto que se va a utilizar para la conexión segura a cada dispositivo con acceso a la consola. El número de puerto predeterminado para la conexión con shell seguro es el 22.


Si desea obtener más información, consulte las páginas de comando man clusters(4) y serialports(4).

  1. Conviértase en superusuario en la consola de administración.
  2. Inicie la utilidad cconsole en modo seguro.
    # cconsole -s [-l username] [-p ssh-port]
    -s

    Habilita la conexión con shell seguro.

    -l nombre_usuario

    Especifica el nombre de usuario para las conexiones remotas. Si la opción - l no está indicada, se utiliza el nombre del usuario que ejecutó la utilidad cconsole .

    -p puerto_ssh

    Indica el número de puerto que se usa para el shell seguro. Si no se indica la opción -p, de forma predeterminada se utiliza el puerto número 22 para las conexiones seguras.

Obtención de acceso a las utilidades de configuración del clúster

La utilidad clsetup permite configurar de forma interactiva el quórum, los grupos de recursos, el transporte del clúster, los nombres de host privados, los grupos de dispositivos y las nuevas opciones de nodos del clúster global. La utilidad clzonecluster realiza tareas de configuración similares para los clústers de zona. Si desea más información, consulte las páginas de comando man clsetup(1CL) y clzonecluster(1CL).

phys-schost# refleja un indicador de clúster global. Siga este procedimiento en un clúster global.

Este procedimiento proporciona las formas largas de los comandos Oracle Solaris Cluster. La mayoría de los comandos también tienen una forma corta. A excepción de las formas de los nombres de comandos, los comandos son idénticos.

  1. Conviértase en superusuario de un nodo de miembro activo en un clúster global. Siga todos los pasos de este procedimiento desde un nodo del clúster global.
  2. Inicie la utilidad de configuración.
    phys-schost# clsetup
    • Para un clúster global, inicie la utilidad con el comando clsetup.
      phys-schost# clsetup

      Aparece el menú principal.

    • En el caso de un clúster de zona, inicie la utilidad con el comando clzonecluster. El clúster de zona de este ejemplo es zona_sc.
      phys-schost# clzonecluster configure sczone

      Con la opción siguiente puede ver las acciones disponibles en la utilidad:

      clzc:sczone> ? 
  3. En el menú, elija la configuración. Siga las instrucciones en pantalla para finalizar una tarea. Si desea ver más detalles, consulte las instrucciones de Configuración de un clúster de zona de Oracle Solaris Cluster Software Installation Guide.

Véase también

Consulte la ayuda en línea de clsetup o clzonecluster para obtener más información.

Visualización de la información de parches de Oracle Solaris Cluster

Para realizar este procedimiento no es necesario iniciar sesión como superusuario.

phys-schost# refleja un indicador de clúster global. Siga este procedimiento en un clúster global.

Este procedimiento proporciona las formas largas de los comandos Oracle Solaris Cluster. La mayoría de los comandos también tienen una forma corta. A excepción de las formas de los nombres de comandos, los comandos son idénticos.

Ejemplo 1-1 Visualización de la información sobre los parches de Oracle Solaris Cluster

En el ejemplo siguiente se muestra información sobre el parche 110648-05.

phys-schost# showrev -p | grep 110648
Patch: 110648-05 Obsoletes:  Requires:  Incompatibles:  Packages: 

Visualización de la información de versión de Oracle Solaris Cluster

Para realizar este procedimiento no es necesario iniciar sesión como superusuario. Siga todos los pasos de este procedimiento desde un nodo del clúster global.

phys-schost# refleja un indicador de clúster global. Siga este procedimiento en un clúster global.

Este procedimiento proporciona las formas largas de los comandos Oracle Solaris Cluster. La mayoría de los comandos también tienen una forma corta. A excepción de las formas de los nombres de comandos, los comandos son idénticos.

Ejemplo 1-2 Visualización de la información de versión de Oracle Solaris Cluster

El ejemplo siguiente muestra la información de versión del clúster y de versión de todos los paquetes.

phys-schost# clnode show-rev
3.2

phys-schost#% clnode show-rev -v
Oracle Solaris Cluster 3.3 for Solaris 10 sparc
SUNWscu:       3.3.0,REV=2010.06.14.03.44
SUNWsccomu:    3.3.0,REV=2010.06.14.03.44
SUNWsczr:      3.3.0,REV=2010.06.14.03.44
SUNWsccomzu:   3.3.0,REV=2010.06.14.03.44
SUNWsczu:      3.3.0,REV=2010.06.14.03.44
SUNWscsckr:    3.3.0,REV=2010.06.14.03.44
SUNWscscku:    3.3.0,REV=2010.06.14.03.44
SUNWscr:       3.3.0,REV=2010.06.14.03.44
SUNWscrtlh:    3.3.0,REV=2010.06.14.03.44
SUNWscnmr:     3.3.0,REV=2010.06.14.03.44
SUNWscnmu:     3.3.0,REV=2010.06.14.03.44
SUNWscdev:     3.3.0,REV=2010.06.14.03.44
SUNWscgds:     3.3.0,REV=2010.06.14.03.44
SUNWscsmf:     3.3.0,REV=2010.06.14.03.44
SUNWscman:     3.3.0,REV=2010.05.21.18.40
SUNWscsal:     3.3.0,REV=2010.06.14.03.44
SUNWscsam:     3.3.0,REV=2010.06.14.03.44
SUNWscvm:      3.3.0,REV=2010.06.14.03.44
SUNWmdmr:      3.3.0,REV=2010.06.14.03.44
SUNWmdmu:      3.3.0,REV=2010.06.14.03.44
SUNWscmasa:    3.3.0,REV=2010.06.14.03.44
SUNWscmasar:   3.3.0,REV=2010.06.14.03.44
SUNWscmasasen: 3.3.0,REV=2010.06.14.03.44
SUNWscmasazu:  3.3.0,REV=2010.06.14.03.44
SUNWscmasau:   3.3.0,REV=2010.06.14.03.44
SUNWscmautil:  3.3.0,REV=2010.06.14.03.44
SUNWscmautilr: 3.3.0,REV=2010.06.14.03.44
SUNWjfreechart: 3.3.0,REV=2010.06.14.03.44
SUNWscspmr:    3.3.0,REV=2010.06.14.03.44
SUNWscspmu:    3.3.0,REV=2010.06.14.03.44
SUNWscderby:   3.3.0,REV=2010.06.14.03.44
SUNWsctelemetry: 3.3.0,REV=2010.06.14.03.44
SUNWscgrepavs: 3.2.3,REV=2009.10.23.12.12
SUNWscgrepsrdf: 3.2.3,REV=2009.10.23.12.12
SUNWscgreptc:  3.2.3,REV=2009.10.23.12.12
SUNWscghb:     3.2.3,REV=2009.10.23.12.12
SUNWscgctl:    3.2.3,REV=2009.10.23.12.12
SUNWscims:     6.0,REV=2003.10.29
SUNWscics:     6.0,REV=2003.11.14
SUNWscapc:     3.2.0,REV=2006.12.06.18.32
SUNWscdns:     3.2.0,REV=2006.12.06.18.32
SUNWschadb:    3.2.0,REV=2006.12.06.18.32
SUNWschtt:     3.2.0,REV=2006.12.06.18.32
SUNWscs1as:    3.2.0,REV=2006.12.06.18.32
SUNWsckrb5:    3.2.0,REV=2006.12.06.18.32
SUNWscnfs:     3.2.0,REV=2006.12.06.18.32
SUNWscor:      3.2.0,REV=2006.12.06.18.32
SUNWscs1mq:    3.2.0,REV=2006.12.06.18.32
SUNWscsap:     3.2.0,REV=2006.12.06.18.32
SUNWsclc:      3.2.0,REV=2006.12.06.18.32
SUNWscsapdb:   3.2.0,REV=2006.12.06.18.32
SUNWscsapenq:  3.2.0,REV=2006.12.06.18.32
SUNWscsaprepl: 3.2.0,REV=2006.12.06.18.32
SUNWscsapscs:  3.2.0,REV=2006.12.06.18.32
SUNWscsapwebas: 3.2.0,REV=2006.12.06.18.32
SUNWscsbl:     3.2.0,REV=2006.12.06.18.32
SUNWscsyb:     3.2.0,REV=2006.12.06.18.32
SUNWscwls:     3.2.0,REV=2006.12.06.18.32
SUNWsc9ias:    3.2.0,REV=2006.12.06.18.32
SUNWscPostgreSQL: 3.2.0,REV=2006.12.06.18.32
SUNWsczone:    3.2.0,REV=2006.12.06.18.32
SUNWscdhc:     3.2.0,REV=2006.12.06.18.32
SUNWscebs:     3.2.0,REV=2006.12.06.18.32
SUNWscmqi:     3.2.0,REV=2006.12.06.18.32
SUNWscmqs:     3.2.0,REV=2006.12.06.18.32
SUNWscmys:     3.2.0,REV=2006.12.06.18.32
SUNWscsge:     3.2.0,REV=2006.12.06.18.32
SUNWscsaa:     3.2.0,REV=2006.12.06.18.32
SUNWscsag:     3.2.0,REV=2006.12.06.18.32
SUNWscsmb:     3.2.0,REV=2006.12.06.18.32
SUNWscsps:     3.2.0,REV=2006.12.06.18.32
SUNWsctomcat:  3.2.0,REV=2006.12.06.18.32

Visualización de tipos de recursos configurados, grupos de recursos y recursos

Este procedimiento también puede efectuarse con la GUI de Oracle Solaris Cluster Manager. Consulte el Capítulo 13, Administración de Oracle Solaris Cluster con las interfaces gráficas de usuario, o consulte la ayuda en línea de Oracle Solaris Cluster Manager para obtener más información.

phys-schost# refleja un indicador de clúster global. Siga este procedimiento en un clúster global.

Este procedimiento proporciona las formas largas de los comandos Oracle Solaris Cluster. La mayoría de los comandos también tienen una forma corta. A excepción de las formas de los nombres de comandos, los comandos son idénticos.

Antes de empezar

Para utilizar subcomando, todos los usuarios necesitan la autorización RBAC solaris.cluster.read menos el superusuario.

Ejemplo 1-3 Visualización de tipos de recursos, grupos de recursos y recursos configurados

En el ejemplo siguiente se muestran los tipos de recursos (RT Name), los grupos de recursos (RG Name) y los recursos (RS Name ) configurados para el clúster schost.

phys-schost# cluster show -t resource,resourcetype,resourcegroup


=== Registered Resource Types ===

Resource Type:                                  SUNW.qfs
  RT_description:                                  SAM-QFS Agent on Oracle Solaris Cluster
  RT_version:                                      3.1
  API_version:                                     3
  RT_basedir:                                      /opt/SUNWsamfs/sc/bin
  Single_instance:                                 False
  Proxy:                                           False
  Init_nodes:                                      All potential masters
  Installed_nodes:                                 <All>
  Failover:                                        True
  Pkglist:                                         <NULL>
  RT_system:                                       False

=== Resource Groups and Resources ===

Resource Group:                                 qfs-rg
  RG_description:                                  <NULL>
  RG_mode:                                         Failover
  RG_state:                                        Managed
  Failback:                                        False
  Nodelist:                                        phys-schost-2 phys-schost-1

  --- Resources for Group qfs-rg ---

  Resource:                                     qfs-res
    Type:                                          SUNW.qfs
    Type_version:                                  3.1
    Group:                                         qfs-rg
    R_description:                                 
    Resource_project_name:                         default
    Enabled{phys-schost-2}:                        True
    Enabled{phys-schost-1}:                        True
    Monitored{phys-schost-2}:                      True
    Monitored{phys-schost-1}:                      True

Comprobación del estado de los componentes del clúster

Este procedimiento también puede efectuarse con la GUI de Oracle Solaris Cluster Manager. Consulte la ayuda en línea de Oracle Solaris Cluster Manager para obtener más información.


Nota - El comando cluster status también muestra el estado de un clúster de zona.


phys-schost# refleja un indicador de clúster global. Siga este procedimiento en un clúster global.

Este procedimiento proporciona las formas largas de los comandos Oracle Solaris Cluster. La mayoría de los comandos también tienen una forma corta. A excepción de las formas de los nombres de comandos, los comandos son idénticos.

Antes de empezar

Todos los usuarios necesitan la autorización RBAC solaris.cluster.read para utilizar el subcomando status menos el superusuario.

Ejemplo 1-4 Comprobación del estado de los componentes del clúster

El ejemplo siguiente es una muestra de la información del estado de los componentes del clúster devuelta por cluster(1CL) status.

phys-schost# cluster status
=== Cluster Nodes ===

--- Node Status ---

Node Name                                       Status
---------                                       ------
phys-schost-1                                   Online
phys-schost-2                                   Online


=== Cluster Transport Paths ===

Endpoint1               Endpoint2               Status
---------               ---------               ------
phys-schost-1:qfe1      phys-schost-4:qfe1      Path online
phys-schost-1:hme1      phys-schost-4:hme1      Path online


=== Cluster Quorum ===

--- Quorum Votes Summary ---

            Needed   Present   Possible
            ------   -------   --------
            3        3         4


--- Quorum Votes by Node ---

Node Name       Present       Possible       Status
---------       -------       --------       ------
phys-schost-1   1             1              Online
phys-schost-2   1             1              Online


--- Quorum Votes by Device ---

Device Name           Present      Possible          Status
-----------               -------      --------      ------
/dev/did/rdsk/d2s2      1            1                Online
/dev/did/rdsk/d8s2      0            1                Offline


=== Cluster Device Groups ===

--- Device Group Status ---

Device Group Name     Primary          Secondary    Status
-----------------     -------          ---------    ------
schost-2              phys-schost-2     -           Degraded


--- Spare, Inactive, and In Transition Nodes ---

Device Group Name   Spare Nodes   Inactive Nodes   In Transistion Nodes
-----------------   -----------   --------------   --------------------
schost-2            -             -                -


=== Cluster Resource Groups ===

Group Name        Node Name      Suspended      Status
----------        ---------      ---------      ------
test-rg           phys-schost-1       No             Offline
                  phys-schost-2       No             Online

test-rg           phys-schost-1       No             Offline
                  phys-schost-2       No             Error--stop failed

test-rg           phys-schost-1       No             Online
                  phys-schost-2       No             Online


=== Cluster Resources ===

Resource Name     Node Name     Status               Message
-------------     ---------     ------               -------
test_1            phys-schost-1      Offline         Offline
                  phys-schost-2      Online          Online

test_1            phys-schost-1      Offline         Offline
                  phys-schost-2      Stop failed     Faulted

test_1            phys-schost-1      Online          Online
                  phys-schost-2      Online          Online


Device Instance             Node                     Status
---------------             ----                     ------
/dev/did/rdsk/d2            phys-schost-1            Ok

/dev/did/rdsk/d3            phys-schost-1            Ok
                            phys-schost-2            Ok

/dev/did/rdsk/d4            phys-schost-1            Ok
                            phys-schost-2            Ok

/dev/did/rdsk/d6            phys-schost-2            Ok



=== Zone Clusters ===

--- Zone Cluster Status ---

Name      Node Name   Zone HostName   Status    Zone Status
----      ---------   -------------   ------    -----------
sczone    schost-1    sczone-1        Online    Running
          schost-2    sczone-2        Online    Running

Comprobación del estado de la red pública

Este procedimiento también puede efectuarse con la GUI de Oracle Solaris Cluster Manager. Consulte la ayuda en línea de Oracle Solaris Cluster Manager para obtener más información.

phys-schost# refleja un indicador de clúster global. Siga este procedimiento en un clúster global.

Este procedimiento proporciona las formas largas de los comandos Oracle Solaris Cluster. La mayoría de los comandos también tienen una forma corta. A excepción de las formas de los nombres de comandos, los comandos son idénticos.

Para comprobar el estado de los grupos de varias rutas de red IP, utilice el comando clnode(1CL) con el subcomando status.

Antes de empezar

Todos los usuarios necesitan la autorización RBAC solaris.cluster.read utilizar este subcomando menos el superusuario.

Ejemplo 1-5 Comprobación del estado de la red pública

En el ejemplo siguiente se puede ver una muestra de la información del estado de los componentes del clúster devuelta por el comando clnode status.

% clnode status -m
--- Node IPMP Group Status ---

Node Name         Group Name    Status    Adapter    Status
---------         ----------    ------    -------    ------
phys-schost-1     test-rg       Online    qfe1       Online
phys-schost-2     test-rg       Online    qfe1       Online 

Visualización de la configuración del clúster

Este procedimiento también puede efectuarse con la GUI de Oracle Solaris Cluster Manager. Consulte la ayuda en línea de Oracle Solaris Cluster Manager para obtener más información.

phys-schost# refleja un indicador de clúster global. Siga este procedimiento en un clúster global.

Este procedimiento proporciona las formas largas de los comandos Oracle Solaris Cluster. La mayoría de los comandos también tienen una forma corta. A excepción de las formas de los nombres de comandos, los comandos son idénticos.

Antes de empezar

Todos los usuarios necesitan la autorización de RBAC solaris.cluster.read para utilizar el subcomando status menos el superusuario.

Ejemplo 1-6 Visualización de la configuración del clúster global

En el ejemplo siguiente figura información de configuración sobre el clúster global. Si tiene configurado un clúster de zona, también se enumera la pertinente información.

phys-schost# cluster show
=== Cluster ===                                

Cluster Name:                                   cluster-1
  installmode:                                     disabled
  heartbeat_timeout:                               10000
  heartbeat_quantum:                               1000
  private_netaddr:                                 172.16.0.0
  private_netmask:                                 255.255.248.0
  max_nodes:                                       64
  max_privatenets:                                 10
  global_fencing:                                  Unknown
  Node List:                                       phys-schost-1
  Node Zones:                                      phys_schost-2:za

  === Host Access Control ===                  

  Cluster name:                                 clustser-1
    Allowed hosts:                                 phys-schost-1, phys-schost-2:za
    Authentication Protocol:                       sys

  === Cluster Nodes ===                        

  Node Name:                                    phys-schost-1
    Node ID:                                       1
    Type:                                          cluster
    Enabled:                                       yes
    privatehostname:                               clusternode1-priv
    reboot_on_path_failure:                        disabled
    globalzoneshares:                              3
    defaultpsetmin:                                1
    quorum_vote:                                   1
    quorum_defaultvote:                            1
    quorum_resv_key:                               0x43CB1E1800000001
    Transport Adapter List:                        qfe3, hme0

    --- Transport Adapters for phys-schost-1 ---    

    Transport Adapter:                          qfe3
      Adapter State:                               Enabled
      Adapter Transport Type:                      dlpi
      Adapter Property(device_name):               qfe
      Adapter Property(device_instance):           3
      Adapter Property(lazy_free):                 1
      Adapter Property(dlpi_heartbeat_timeout):    10000
      Adapter Property(dlpi_heartbeat_quantum):    1000
      Adapter Property(nw_bandwidth):              80
      Adapter Property(bandwidth):                 10
      Adapter Property(ip_address):                172.16.1.1
      Adapter Property(netmask):                   255.255.255.128
      Adapter Port Names:                          0
      Adapter Port State(0):                       Enabled

    Transport Adapter:                          hme0
      Adapter State:                               Enabled
      Adapter Transport Type:                      dlpi
      Adapter Property(device_name):               hme
      Adapter Property(device_instance):           0
      Adapter Property(lazy_free):                 0
      Adapter Property(dlpi_heartbeat_timeout):    10000
      Adapter Property(dlpi_heartbeat_quantum):    1000
      Adapter Property(nw_bandwidth):              80
      Adapter Property(bandwidth):                 10
      Adapter Property(ip_address):                172.16.0.129
      Adapter Property(netmask):                   255.255.255.128
      Adapter Port Names:                          0
      Adapter Port State(0):                       Enabled

    --- SNMP MIB Configuration on phys-schost-1 --- 

    SNMP MIB Name:                              Event
      State:                                       Disabled
      Protocol:                                    SNMPv2

    --- SNMP Host Configuration on phys-schost-1 ---

    --- SNMP User Configuration on phys-schost-1 ---

    SNMP User Name:                             foo
      Authentication Protocol:                     MD5
      Default User:                                No

  Node Name:                                    phys-schost-2:za
    Node ID:                                       2
    Type:                                          cluster
    Enabled:                                       yes
    privatehostname:                               clusternode2-priv
    reboot_on_path_failure:                        disabled
    globalzoneshares:                              1
    defaultpsetmin:                                2
    quorum_vote:                                   1
    quorum_defaultvote:                            1
    quorum_resv_key:                               0x43CB1E1800000002
    Transport Adapter List:                        hme0, qfe3

    --- Transport Adapters for phys-schost-2 ---    

    Transport Adapter:                          hme0
      Adapter State:                               Enabled
      Adapter Transport Type:                      dlpi
      Adapter Property(device_name):               hme
      Adapter Property(device_instance):           0
      Adapter Property(lazy_free):                 0
      Adapter Property(dlpi_heartbeat_timeout):    10000
      Adapter Property(dlpi_heartbeat_quantum):    1000
      Adapter Property(nw_bandwidth):              80
      Adapter Property(bandwidth):                 10
      Adapter Property(ip_address):                172.16.0.130
      Adapter Property(netmask):                   255.255.255.128
      Adapter Port Names:                          0
      Adapter Port State(0):                       Enabled

    Transport Adapter:                          qfe3
      Adapter State:                               Enabled
      Adapter Transport Type:                      dlpi
      Adapter Property(device_name):               qfe
      Adapter Property(device_instance):           3
      Adapter Property(lazy_free):                 1
      Adapter Property(dlpi_heartbeat_timeout):    10000
      Adapter Property(dlpi_heartbeat_quantum):    1000
      Adapter Property(nw_bandwidth):              80
      Adapter Property(bandwidth):                 10
      Adapter Property(ip_address):                172.16.1.2
      Adapter Property(netmask):                   255.255.255.128
      Adapter Port Names:                          0
      Adapter Port State(0):                       Enabled

    --- SNMP MIB Configuration on phys-schost-2 --- 

    SNMP MIB Name:                              Event
      State:                                       Disabled
      Protocol:                                    SNMPv2

    --- SNMP Host Configuration on phys-schost-2 ---

    --- SNMP User Configuration on phys-schost-2 ---

  === Transport Cables ===                     

  Transport Cable:                              phys-schost-1:qfe3,switch2@1
    Cable Endpoint1:                               phys-schost-1:qfe3
    Cable Endpoint2:                               switch2@1
    Cable State:                                   Enabled

  Transport Cable:                              phys-schost-1:hme0,switch1@1
    Cable Endpoint1:                               phys-schost-1:hme0
    Cable Endpoint2:                               switch1@1
    Cable State:                                   Enabled

  Transport Cable:                              phys-schost-2:hme0,switch1@2
    Cable Endpoint1:                               phys-schost-2:hme0
    Cable Endpoint2:                               switch1@2
    Cable State:                                   Enabled

  Transport Cable:                              phys-schost-2:qfe3,switch2@2
    Cable Endpoint1:                               phys-schost-2:qfe3
    Cable Endpoint2:                               switch2@2
    Cable State:                                   Enabled

  === Transport Switches ===                   

  Transport Switch:                             switch2
    Switch State:                                  Enabled
    Switch Type:                                   switch
    Switch Port Names:                             1 2
    Switch Port State(1):                          Enabled
    Switch Port State(2):                          Enabled

  Transport Switch:                             switch1
    Switch State:                                  Enabled
    Switch Type:                                   switch
    Switch Port Names:                             1 2
    Switch Port State(1):                          Enabled
    Switch Port State(2):                          Enabled


  === Quorum Devices ===                       

  Quorum Device Name:                           d3
    Enabled:                                       yes
    Votes:                                         1
    Global Name:                                   /dev/did/rdsk/d3s2
    Type:                                          scsi
    Access Mode:                                   scsi2
    Hosts (enabled):                               phys-schost-1, phys-schost-2

  Quorum Device Name:                           qs1
    Enabled:                                       yes
    Votes:                                         1
    Global Name:                                   qs1
    Type:                                          quorum_server
    Hosts (enabled):                               phys-schost-1, phys-schost-2
    Quorum Server Host:                            10.11.114.83
    Port:                                          9000


  === Device Groups ===                        

  Device Group Name:                            testdg3
    Type:                                          SVM
    failback:                                      no
    Node List:                                     phys-schost-1, phys-schost-2
    preferenced:                                   yes
    numsecondaries:                                1
    diskset name:                                  testdg3

  === Registered Resource Types ===            

  Resource Type:                                SUNW.LogicalHostname:2
    RT_description:                                Logical Hostname Resource Type
    RT_version:                                    2
    API_version:                                   2
    RT_basedir:                                    /usr/cluster/lib/rgm/rt/hafoip
    Single_instance:                               False
    Proxy:                                         False
    Init_nodes:                                    All potential masters
    Installed_nodes:                               <All>
    Failover:                                      True
    Pkglist:                                       SUNWscu
    RT_system:                                     True

  Resource Type:                                SUNW.SharedAddress:2
    RT_description:                                HA Shared Address Resource Type
    RT_version:                                    2
    API_version:                                   2
    RT_basedir:                                    /usr/cluster/lib/rgm/rt/hascip
    Single_instance:                               False
    Proxy:                                         False
    Init_nodes:                                    <Unknown>
    Installed_nodes:                              <All>
    Failover:                                      True
    Pkglist:                                       SUNWscu
    RT_system:                                     True

  Resource Type:                                SUNW.HAStoragePlus:4
    RT_description:                                HA Storage Plus
    RT_version:                                    4
    API_version:                                   2
    RT_basedir:                                    /usr/cluster/lib/rgm/rt/hastorageplus
    Single_instance:                               False
    Proxy:                                         False
    Init_nodes:                                    All potential masters
    Installed_nodes:                               <All>
    Failover:                                      False
    Pkglist:                                       SUNWscu
    RT_system:                                     False

  Resource Type:                                SUNW.haderby
    RT_description:                                haderby server for Oracle Solaris Cluster
    RT_version:                                    1
    API_version:                                   7
    RT_basedir:                                    /usr/cluster/lib/rgm/rt/haderby
    Single_instance:                               False
    Proxy:                                         False
    Init_nodes:                                    All potential masters
    Installed_nodes:                               <All>
    Failover:                                      False
    Pkglist:                                       SUNWscderby
    RT_system:                                     False

  Resource Type:                                SUNW.sctelemetry
    RT_description:                                sctelemetry service for Oracle Solaris Cluster
    RT_version:                                    1
    API_version:                                   7
    RT_basedir:                                    /usr/cluster/lib/rgm/rt/sctelemetry
    Single_instance:                               True
    Proxy:                                         False
    Init_nodes:                                    All potential masters
    Installed_nodes:                               <All>
    Failover:                                      False
    Pkglist:                                       SUNWsctelemetry
    RT_system:                                     False

  === Resource Groups and Resources ===        

  Resource Group:                               HA_RG
    RG_description:                                <Null>
    RG_mode:                                       Failover
    RG_state:                                      Managed
    Failback:                                      False
    Nodelist:                                      phys-schost-1 phys-schost-2

    --- Resources for Group HA_RG ---          

    Resource:                                   HA_R
      Type:                                        SUNW.HAStoragePlus:4
      Type_version:                                4
      Group:                                       HA_RG
      R_description:                               
      Resource_project_name:                       SCSLM_HA_RG
      Enabled{phys-schost-1}:                      True
      Enabled{phys-schost-2}:                      True
      Monitored{phys-schost-1}:                    True
      Monitored{phys-schost-2}:                    True

  Resource Group:                               cl-db-rg
    RG_description:                                <Null>
    RG_mode:                                       Failover
    RG_state:                                      Managed
    Failback:                                      False
    Nodelist:                                      phys-schost-1 phys-schost-2

    --- Resources for Group cl-db-rg ---       

    Resource:                                   cl-db-rs
      Type:                                        SUNW.haderby
      Type_version:                                1
      Group:                                       cl-db-rg
      R_description:                               
      Resource_project_name:                       default
      Enabled{phys-schost-1}:                      True
      Enabled{phys-schost-2}:                      True
      Monitored{phys-schost-1}:                    True
      Monitored{phys-schost-2}:                    True

  Resource Group:                               cl-tlmtry-rg
    RG_description:                                <Null>
    RG_mode:                                       Scalable
    RG_state:                                      Managed
    Failback:                                      False
    Nodelist:                                      phys-schost-1 phys-schost-2

    --- Resources for Group cl-tlmtry-rg ---   

    Resource:                                   cl-tlmtry-rs
      Type:                                        SUNW.sctelemetry
      Type_version:                                1
      Group:                                       cl-tlmtry-rg
      R_description:                               
      Resource_project_name:                       default
      Enabled{phys-schost-1}:                      True
      Enabled{phys-schost-2}:                      True
      Monitored{phys-schost-1}:                    True
      Monitored{phys-schost-2}:                    True

  === DID Device Instances ===                 

  DID Device Name:                              /dev/did/rdsk/d1
    Full Device Path:                              phys-schost-1:/dev/rdsk/c0t2d0
    Replication:                                   none
    default_fencing:                               global

  DID Device Name:                              /dev/did/rdsk/d2
    Full Device Path:                              phys-schost-1:/dev/rdsk/c1t0d0
    Replication:                                   none
    default_fencing:                               global

  DID Device Name:                              /dev/did/rdsk/d3
    Full Device Path:                              phys-schost-2:/dev/rdsk/c2t1d0
    Full Device Path:                              phys-schost-1:/dev/rdsk/c2t1d0
    Replication:                                   none
    default_fencing:                               global

  DID Device Name:                              /dev/did/rdsk/d4
    Full Device Path:                              phys-schost-2:/dev/rdsk/c2t2d0
    Full Device Path:                              phys-schost-1:/dev/rdsk/c2t2d0
    Replication:                                   none
    default_fencing:                               global

  DID Device Name:                              /dev/did/rdsk/d5
    Full Device Path:                              phys-schost-2:/dev/rdsk/c0t2d0
    Replication:                                   none
    default_fencing:                               global

  DID Device Name:                              /dev/did/rdsk/d6
    Full Device Path:                              phys-schost-2:/dev/rdsk/c1t0d0
    Replication:                                   none
    default_fencing:                               global

  === NAS Devices ===                          

  Nas Device:                                   nas_filer1
    Type:                                          netapp
    User ID:                                       root

  Nas Device:                                   nas2
    Type:                                          netapp
    User ID:                                       llai

Ejemplo 1-7 Visualización de la información del clúster de zona

En el ejemplo siguiente figuran las propiedades de la configuración del clúster de zona.

% clzonecluster show
=== Zone Clusters ===

Zone Cluster Name:                              sczone
  zonename:                                        sczone
  zonepath:                                        /zones/sczone
  autoboot:                                        TRUE
  ip-type:                                         shared
  enable_priv_net:                                 TRUE

  --- Solaris Resources for sczone ---

  Resource Name:                                net
    address:                                       172.16.0.1
    physical:                                      auto

  Resource Name:                                net
    address:                                       172.16.0.2
    physical:                                      auto

  Resource Name:                                fs
    dir:                                           /gz/db_qfs/CrsHome
    special:                                       CrsHome
    raw:
    type:                                          samfs
    options:                                       []


  Resource Name:                                fs
    dir:                                           /gz/db_qfs/CrsData
    special:                                       CrsData
    raw:
    type:                                          samfs
    options:                                       []


  Resource Name:                                fs
    dir:                                           /gz/db_qfs/OraHome
    special:                                       OraHome
    raw:
    type:                                          samfs
    options:                                       []


  Resource Name:                                fs
    dir:                                           /gz/db_qfs/OraData
    special:                                       OraData
    raw:
    type:                                          samfs
    options:                                       []


  --- Zone Cluster Nodes for sczone ---

  Node Name:                                    sczone-1
    physical-host:                                 sczone-1
    hostname:                                      lzzone-1

  Node Name:                                    sczone-2
    physical-host:                                 sczone-2
    hostname:                                      lzzone-2

También puede ver los dispositivos NAS que se han configurado para clústeres globales o de zona, utilizando el subcomando clnasdevice show o Oracle Solaris Cluster Manager. Para obtener más información, consulte la página de comando man clnasdevice(1CL).

Validación de una configuración básica de clúster

El comando cluster(1CL) se sirve del subcomando check para validar la configuración básica que necesita un clúster global para funcionar correctamente. Si ninguna comprobación arroja un resultado incorrecto, cluster check devuelve al indicador del shell. Si falla alguna de las comprobaciones, cluster check emite informes que aparecen en el directorio de salida que se haya especificado o en el predeterminado. Si ejecuta cluster check con más de un nodo, cluster check emite un informe para cada nodo y un informe para las comprobaciones que comprenden varios nodos. También puede utilizar el comando cluster list-checks para que se muestre una lista con todas las comprobaciones disponibles para el clúster.

A partir de la versión 3.3 5/11 de Oracle Solaris Cluster, el comando cluster check se ha mejorado con nuevos tipos de comprobaciones. Además de las comprobaciones básicas, que se ejecutan sin la interacción del usuario, el comando también puede ejecutar comprobaciones interactivas y funcionales. Las comprobaciones básicas se ejecutan cuando la opción - k palabra_clave no se especifica.

Puede ejecutar el comando cluster check en modo detallado con el indicador -v para que se muestre la información de progreso.


Nota - Ejecute cluster check después de realizar un procedimiento de administración que pueda provocar modificaciones en los dispositivos, en los componentes de administración de volúmenes o en la configuración de Oracle Solaris Cluster.


Al ejecutar el comando clzonecluster(1CL) en el nodo de votación de clúster global, se lleva a cabo un conjunto de comprobaciones con el fin de validar la configuración necesaria para que un clúster de zona funcione correctamente. Si todas las comprobaciones son correctas, clzonecluster verify devuelve al indicador de shell y el clúster de zona se puede instalar con seguridad. Si falla alguna de las comprobaciones, clzonecluster verify informa sobre los nodos del clúster global en los que la verificación no obtuvo un resultado correcto. Si ejecuta clzonecluster verify respecto a más de un nodo, se emite un informe para cada nodo y un informe para las comprobaciones que comprenden varios nodos. No se permite utilizar el subcomando verify dentro de los clústers de zona.

  1. Conviértase en superusuario de un nodo de miembro activo en un clúster global. Siga todos los pasos de este procedimiento desde un nodo del clúster global.
    phys-schost# su
  2. Asegúrese de que dispone de las comprobaciones más actuales.

    Vaya a la ficha Parches y actualizaciones (Patches & Updates) de My Oracle Support. Mediante la búsqueda avanzada, seleccione "Solaris Cluster" como producto y especifique "comprobar" en el campo de descripción para localizar los parches de Oracle Solaris Cluster que contengan comprobaciones. Aplique los parches que aún no estén instalados en el clúster.

  3. Ejecute las comprobaciones de validación básicas.
    # cluster check -v -o outputdir
    -v

    Modo detallado

    -o dir_salida

    Redirige la salida al subdirectorio dir_salida.

    El comando ejecuta todas las comprobaciones básicas disponibles. No se ve afectada ninguna función del clúster.

  4. Ejecute las comprobaciones de validación interactivas.
    # cluster check -v -k interactive -o outputdir
    -k interactive

    Especifica comprobaciones de validación interactivas en ejecución

    El comando ejecuta todas las comprobaciones de validación interactivas disponibles y le solicita información necesaria sobre el clúster. No se ve afectada ninguna función del clúster.

  5. Ejecute las comprobaciones de validación funcionales.
    1. Enumere todas las comprobaciones funcionales disponibles en el modo detallado.
      # cluster list-checks -k functional
    2. Determine qué comprobaciones funcionales realizan acciones que puedan afectar a la disponibilidad o los servicios del clúster en un entorno de producción.

      Por ejemplo, una comprobación funcional puede desencadenar que el nodo genere avisos graves o una conmutación por error a otro nodo.

      # cluster list-checks -v -C checkID
      -C ID_comprobación

      Especifica un una comprobación específica.

    3. Si hay peligro de que la comprobación funcional que desea efectuar interrumpa el funcionamiento del clúster, asegúrese de que el clúster no esté en producción.
    4. Inicie la comprobación funcional.
      # cluster check -v -k functional -C checkid -o outputdir
      -k functional

      Especifica comprobaciones de validación funcionales en ejecución.

      Responda a las peticiones de la comprobación para confirmar la ejecución de la comprobación y para cualquier información o acciones que deba realizar.

    5. Repita el Paso c y el Paso d para cada comprobación funcional que quede por ejecutar.

      Nota - para fines de registro, especifique un único nombre de subdirectorio dir_salida para cada comprobación que se ejecuta. Si vuelve a utilizar un nombre dir_salida, la salida para la nueva comprobación sobrescribe el contenido existente del subdirectorio dir_salida reutilizado.


  6. Compruebe la configuración del clúster de zona para ver si es posible instalar un clúster de zona.
    phys-schost# clzonecluster verify zoneclustername
  7. Grabe la configuración del clúster para poder realizar tareas de diagnóstico en el futuro.

    Consulte Cómo registrar los datos de diagnóstico de la configuración del clúster de Oracle Solaris Cluster Software Installation Guide.

Ejemplo 1-8 Comprobación de la configuración del clúster global con resultado correcto en todas las comprobaciones básicas

El ejemplo siguiente muestra cómo la ejecución de cluster check en modo detallado respecto a los nodos phys-schost-1 y phys-schost-2 supera correctamente todas las comprobaciones.

phys-schost# cluster check -v -h phys-schost-1,  
     phys-schost-2

cluster check: Requesting explorer data and node report from phys-schost-1.
cluster check: Requesting explorer data and node report from phys-schost-2.
cluster check: phys-schost-1: Explorer finished.
cluster check: phys-schost-1: Starting single-node checks.
cluster check: phys-schost-1: Single-node checks finished.
cluster check: phys-schost-2: Explorer finished.
cluster check: phys-schost-2: Starting single-node checks.
cluster check: phys-schost-2: Single-node checks finished.
cluster check: Starting multi-node checks.
cluster check: Multi-node checks finished
# 

Ejemplo 1-9 Listado de comprobaciones de validación interactivas

En el siguiente ejemplo se enumeran todas las comprobaciones interactivas que están disponibles para ejecutarse en el clúster. En la salida del ejemplo aparece un muestreo de posibles comprobaciones; las comprobaciones disponibles reales varían en cada configuración.

# cluster list-checks -k interactive
 Some checks might take a few moments to run (use -v to see progress)...
 I6994574  :   (Moderate)   Fix for GLDv3 interfaces on cluster transport vulnerability applied?

Ejemplo 1-10 Ejecución de una comprobación de validación funcional

El siguiente ejemplo muestra primero el listado detallado de comprobaciones funcionales. La descripción detallada aparece en una lista para la comprobación F6968101, que indica que la comprobación podría alterar los servicios del clúster. El clúster se elimina de la producción. La comprobación funcional se ejecuta con salida detallada registrada en el subdirectorio funct.test.F6968101.12Jan2011. En la salida de ejemplo aparece un muestreo de posibles comprobaciones; las comprobaciones disponibles reales varían en cada configuración.

# cluster list-checks -k functional
 F6968101  :   (Critical)   Perform resource group switchover
 F6984120  :   (Critical)   Induce cluster transport network failure - single adapter.
 F6984121  :   (Critical)   Perform cluster shutdown
 F6984140  :   (Critical)   Induce node panic
…

# cluster list-checks -v -C F6968101
 F6968101: (Critical) Perform resource group switchover
Keywords: SolarisCluster3.x, functional
Applicability: Applicable if multi-node cluster running live.
Check Logic: Select a resource group and destination node. Perform 
'/usr/cluster/bin/clresourcegroup switch' on specified resource group 
either to specified node or to all nodes in succession.
Version: 1.2
Revision Date: 12/10/10 

Take the cluster out of production

# cluster check -k functional -C F6968101 -o funct.test.F6968101.12Jan2011
F6968101 
  initializing...
  initializing xml output...
  loading auxiliary data...
  starting check run...
     pschost1, pschost2, pschost3, pschost4:     F6968101.... starting:  
Perform resource group switchover           


  ============================================================

   >>> Functional Check <<<

    'Functional' checks exercise cluster behavior. It is recommended that you
    do not run this check on a cluster in production mode.' It is recommended
    that you have access to the system console for each cluster node and
    observe any output on the consoles while the check is executed.

    If the node running this check is brought down during execution the check
    must be rerun from this same node after it is rebooted into the cluster in
    order for the check to be completed.

    Select 'continue' for more details on this check.

          1) continue
          2) exit

          choice: 1


  ============================================================

   >>> Check Description <<<
…
Follow onscreen directions

Ejemplo 1-11 Comprobación de la configuración del clúster global con una comprobación con resultado no satisfactorio

El ejemplo siguiente muestra el nodo phys-schost-2, perteneciente al clúster denominado suncluster, excepto el punto de montaje /global/phys-schost-1. Los informes se crean en el directorio de salida /var/cluster/logs/cluster_check/<timestamp> .

phys-schost# cluster check -v -h phys-schost-1, 
phys-schost-2 -o
     /var/cluster/logs/cluster_check/Dec5/

cluster check: Requesting explorer data and node report from phys-schost-1.
cluster check: Requesting explorer data and node report from phys-schost-2.
cluster check: phys-schost-1: Explorer finished.
cluster check: phys-schost-1: Starting single-node checks.
cluster check: phys-schost-1: Single-node checks finished.
cluster check: phys-schost-2: Explorer finished.
cluster check: phys-schost-2: Starting single-node checks.
cluster check: phys-schost-2: Single-node checks finished.
cluster check: Starting multi-node checks.
cluster check: Multi-node checks finished.
cluster check: One or more checks failed.
cluster check: The greatest severity of all check failures was 3 (HIGH).
cluster check: Reports are in /var/cluster/logs/cluster_check/<Dec5>.
# 
# cat /var/cluster/logs/cluster_check/Dec5/cluster_check-results.suncluster.txt
...
===================================================
= ANALYSIS DETAILS =
===================================================
------------------------------------
CHECK ID : 3065
SEVERITY : HIGH
FAILURE  : Global filesystem /etc/vfstab entries are not consistent across 
all Oracle Solaris  Cluster 3.x nodes.
ANALYSIS : The global filesystem /etc/vfstab entries are not consistent across 
all nodes in this cluster.
Analysis indicates:
FileSystem '/global/phys-schost-1' is on 'phys-schost-1' but missing from 'phys-schost-2'.
RECOMMEND: Ensure each node has the correct /etc/vfstab entry for the 
filesystem(s) in question.
...
 #

Comprobación de los puntos de montaje globales

El comando cluster(1CL) incluye comprobaciones que verifican el archivo /etc/vfstab para detectar posibles errores de configuración con el sistema de archivos del clúster y sus puntos de montaje globales.


Nota - Ejecute cluster check después de efectuar cambios en la configuración del clúster que hayan afectado a los dispositivos o a los componentes de administración de volúmenes.


  1. Conviértase en superusuario de un nodo de miembro activo en un clúster global.

    Siga todos los pasos de este procedimiento desde un nodo del clúster global.

    % su
  2. Compruebe la configuración del clúster global.
    phys-schost# cluster check

Ejemplo 1-12 Comprobación de puntos de montaje globales

El ejemplo siguiente muestra el nodo phys-schost-2 del clúster denominado suncluster, excepto el punto de montaje /global/schost-1 . Los informes se envían al directorio de salida, /var/cluster/logs/cluster_check/<timestamp>/ .

phys-schost# cluster check -v1 -h phys-schost-1,phys-schost-2 -o /var/cluster//logs/cluster_check/Dec5/

cluster check: Requesting explorer data and node report from phys-schost-1.
cluster check: Requesting explorer data and node report from phys-schost-2.
cluster check: phys-schost-1: Explorer finished.
cluster check: phys-schost-1: Starting single-node checks.
cluster check: phys-schost-1: Single-node checks finished.
cluster check: phys-schost-2: Explorer finished.
cluster check: phys-schost-2: Starting single-node checks.
cluster check: phys-schost-2: Single-node checks finished.
cluster check: Starting multi-node checks.
cluster check: Multi-node checks finished.
cluster check: One or more checks failed.
cluster check: The greatest severity of all check failures was 3 (HIGH).
cluster check: Reports are in /var/cluster/logs/cluster_check/Dec5.
# 
# cat /var/cluster/logs/cluster_check/Dec5/cluster_check-results.suncluster.txt

...
===================================================
= ANALYSIS DETAILS =
===================================================
------------------------------------
CHECK ID : 3065
SEVERITY : HIGH
FAILURE  : Global filesystem /etc/vfstab entries are not consistent across 
all Oracle Solaris Cluster 3.x nodes.
ANALYSIS : The global filesystem /etc/vfstab entries are not consistent across 
all nodes in this cluster.
Analysis indicates:
FileSystem '/global/phys-schost-1' is on 'phys-schost-1' but missing from 'phys-schost-2'.
RECOMMEND: Ensure each node has the correct /etc/vfstab entry for the 
filesystem(s) in question.
...
#
# cat /var/cluster/logs/cluster_check/Dec5/cluster_check-results.phys-schost-1.txt

...
===================================================
= ANALYSIS DETAILS =
===================================================
------------------------------------
CHECK ID : 1398
SEVERITY : HIGH
FAILURE  : An unsupported server is being used as an Oracle Solaris Cluster 3.x node.
ANALYSIS : This server may not been qualified to be used as an Oracle Solaris Cluster 3.x node.  
Only servers that have been qualified with Oracle Solaris Cluster 3.x are supported as 
Oracle Solaris Cluster 3.x nodes.
RECOMMEND: Because the list of supported servers is always being updated, check with 
your Oracle representative to get the latest information on what servers 
are currently supported and only use a server that is supported with Oracle Solaris Cluster 3.x.
...
#

Visualización del contenido de los registros de comandos de Oracle Solaris Cluster

El archivo de texto ASCII /var/cluster/logs/commandlog contiene registros de comandos de Oracle Solaris Cluster seleccionados que se ejecutan en un clúster. Los comandos comienzan a registrarse automáticamente al configurarse el clúster y la operación se finaliza al cerrarse el clúster. Los comandos se registran en todos los nodos activos y que se han arrancado en modo de clúster.

Entre los comandos que no quedan registrados en este archivo están los encargados de mostrar la configuración y el estado actual del clúster.

Entre los comandos que quedan registrados en este archivo están los encargados de configurar y modificar el estado actual del clúster:

Los registros del archivo commandlog pueden contener los elementos siguientes:

De forma predeterminada, el archivo commandlog se archiva periódicamente una vez por semana. Para modificar las directrices de archivado del archivo commandlog, utilice el comando crontab en todos los nodos del clúster. Para obtener más información, consulte la página de comando man crontab(1).

El software Oracle Solaris Cluster conserva en todo momento hasta un máximo de ocho archivos commandlog archivados anteriormente en cada nodo del clúster. El archivo commandlog de la semana actual se denomina commandlog. El archivo semanal completo más reciente se denomina commandlog.0. El archivo semanal completo más antiguo se denomina commandlog.7.

Ejemplo 1-13 Visualización del contenido de los registros de comandos de Oracle Solaris Cluster

El ejemplo siguiente muestra el contenido del archivo commandlog que se visualiza mediante el comando more.

more -lines10 /var/cluster/logs/commandlog
11/11/2006 09:42:51 phys-schost-1 5222 root START - clsetup
11/11/2006 09:43:36 phys-schost-1 5758 root START - clrg add "app-sa-1"
11/11/2006 09:43:36 phys-schost-1 5758 root END 0
11/11/2006 09:43:36 phys-schost-1 5760 root START - clrg set -y
"RG_description=Department Shared Address RG" "app-sa-1"
11/11/2006 09:43:37 phys-schost-1 5760 root END 0
11/11/2006 09:44:15 phys-schost-1 5810 root START - clrg online "app-sa-1"
11/11/2006 09:44:15 phys-schost-1 5810 root END 0
11/11/2006 09:44:19 phys-schost-1 5222 root END -20988320
12/02/2006 14:37:21 phys-schost-1 5542 jbloggs START - clrg -c -g "app-sa-1"
-y "RG_description=Joe Bloggs Shared Address RG"
12/02/2006 14:37:22 phys-schost-1 5542 jbloggs END 0