JavaScript is required to for searching.
Omitir Vínculos de navegación
Salir de la Vista de impresión
Guía de administración del sistema de Oracle Solaris Cluster     Oracle Solaris Cluster 4.1 (Español)
search filter icon
search icon

Información del documento

Prefacio

1.  Introducción a la administración de Oracle Solaris Cluster

Descripción general de la administración de Oracle Solaris Cluster

Trabajo con un clúster de zona

Restricciones de las funciones del sistema operativo Oracle Solaris

Herramientas de administración

Interfaz de línea de comandos

Preparación para administrar el clúster

Documentación de las configuraciones de hardware de Oracle Solaris Cluster

Uso de la consola de administración

Copia de seguridad del clúster

Procedimiento para empezar a administrar el clúster

Inicio de sesión de manera remota en el clúster

Conexión segura a las consolas del clúster

Obtención de acceso a las utilidades de configuración del clúster

Visualización de la información de versión de Oracle Solaris Cluster

Visualización de tipos de recursos configurados, grupos de recursos y recursos

Comprobación del estado de los componentes del clúster

Comprobación del estado de la red pública

Visualización de la configuración del clúster

Validación de una configuración básica de clúster

Comprobación de los puntos de montaje globales

Visualización del contenido de los registros de comandos de Oracle Solaris Cluster

2.  Oracle Solaris Cluster y RBAC

3.  Cierre y arranque de un clúster

4.  Métodos de replicación de datos

5.  Administración de dispositivos globales, supervisión de rutas de disco y sistemas de archivos de clúster

6.  Administración de quórum

7.  Administración de interconexiones de clústeres y redes públicas

8.  Adición y eliminación de un nodo

9.  Administración del clúster

10.  Configuración del control del uso de la CPU

11.  Actualización de software

12.  Copias de seguridad y restauraciones de clústeres

A.  Ejemplo

Índice

Procedimiento para empezar a administrar el clúster

La Tabla 1-2 proporciona un punto de partida para administrar el clúster.

Tabla 1-2 Herramientas de administración de Oracle Solaris Cluster

Tarea
Herramienta
Instrucciones
Iniciar sesión en el clúster de forma remota
Use la utilidad pconsole de Oracle Solaris de la línea de comandos para iniciar sesión en el clúster de manera remota.
Configurar el clúster de forma interactiva
Utilice el comando clzonecluster o la utilidad clsetup.
Mostrar información sobre el número y la versión de Oracle Solaris Cluster
Utilice el comando clnode con el subcomando y la opción show-rev -v-nodo.
Mostrar los recursos, grupos de recursos y tipos de recursos instalados
Utilice los comandos siguientes para mostrar la información sobre recursos:
  • clresource

  • clresourcegroup

  • clresourcetype

Comprobar el estado de los componentes del clúster
Utilice el comando cluster con el subcomando status.
Comprobar el estado de los grupos de varias rutas IP en la red pública
En un clúster global, utilice el comando clnode status con la opción -m.

Para un clúster de zona, utilice el comando clzonecluster con el subcomando show.

Ver la configuración del clúster
Para un clúster global, utilice el comando cluster con el subcomando show.

Para un clúster de zona, utilice el comando clzonecluster con el subcomando show.

Ver y mostrar los dispositivos NAS configurados
Para un clúster global o un clúster de zona, utilice el comando clzonecluster con el subcomando show.
Comprobar los puntos de montaje globales o verificar la configuración del clúster
Para un clúster global, utilice el comando cluster con el subcomando check.

En un clúster de zona, utilice el comando clzonecluster verify.

Examinar el contenido de los registros de comandos de Oracle Solaris Cluster
Examine el archivo /var/cluster/logs/ commandlog.
Examinar los mensajes del sistema del Oracle Solaris Cluster
Examine el archivo /var/adm/messages.
Supervisar el estado de Solaris Volume Manager
Utilice el comando metastat.

Inicio de sesión de manera remota en el clúster

Puede utilizar la utilidad de acceso a la consola paralela (pconsole) de la línea de comandos para iniciar sesión en el clúster de manera remota. La utilidad pconsole es parte del paquete terminal/pconsole de Oracle Solaris. Instale el paquete ejecutando pkg install terminal/pconsole. La utilidad pconsole crea una ventana de terminal de host para cada host remoto que especifica en la línea de comandos. La utilidad también abre una ventana de consola central o principal que propaga lo que introduce allí a cada una de las conexiones que abre.

La utilidad pconsole se puede ejecutar desde Windows X o en el modo de consola. Instale pconsole en el equipo que utilizará como la consola de administración para el clúster. Si tiene un servidor de terminal que le permite conectarse a números de puertos específicos en la dirección IP del servidor, puede especificar el número de puerto además del nombre de host o dirección IP como terminal-server:portnumber.

Consulte la página del comando man pconsole(1) para obtener más información.

Conexión segura a las consolas del clúster

Si el concentrador de terminales o controlador del sistema admite ssh, puede utilizar la utilidad pconsole para conectarse a las consolas de esos sistemas. La utilidad pconsole es parte del paquete terminal/pconsole de Oracle Solaris y se instala cuando se instala el paquete. La utilidad pconsole crea una ventana de terminal de host para cada host remoto que especifica en la línea de comandos. La utilidad también abre una ventana de consola central o principal que propaga lo que introduce allí a cada una de las conexiones que abre. Consulte la página del comando man pconsole(1) para obtener más información.

Obtención de acceso a las utilidades de configuración del clúster

La utilidad clsetup le permite crear un cluster de zona de manera interactiva y también configurar quórums, grupos de recursos, transportes del cluster, nombres de host privados, grupos de dispositivos y nuevas opciones de nodo para el cluster global. La utilidad clzonecluster realiza tareas de configuración similares para los clústeres de zona. Si desea más información, consulte las páginas de comando man clsetup(1CL) y clzonecluster(1CL).

phys-schost# refleja un indicador de clúster global. Siga este procedimiento en un clúster global.

Este procedimiento proporciona las formas largas de los comandos de Oracle Solaris Cluster. La mayoría de los comandos también tienen una forma corta. A excepción de las formas de los nombres de comandos, los comandos son idénticos.

  1. Asuma el rol root en un nodo de miembro activo en un cluster global.

    Siga todos los pasos de este procedimiento desde un nodo del clúster global.

  2. Inicie la utilidad de configuración.
    phys-schost# clsetup
    • Para un clúster global, inicie la utilidad con el comando clsetup.
      phys-schost# clsetup

      Se muestra la q.

    • En el caso de un clúster de zona, inicie la utilidad con el comando clzonecluster. El clúster de zona de este ejemplo es zona_sc.
      phys-schost# clzonecluster configure sczone

      Con la opción siguiente puede ver las acciones disponibles en la utilidad:

      clzc:sczone> ? 

    También puede utilizar la utilidad clsetup para crear un cluster de zona o agregar un sistema de archivos o un dispositivo de almacenamiento en el ámbito del cluster. Todas las demás tareas de configuración del cluster de zona se realizan con el comando clzonecluster configure. Consulte la Guía de instalación del software de Oracle Solaris Cluster para obtener instrucciones sobre cómo utilizar la utilidad clsetup.

  3. En el menú, elija la configuración.

    Siga las instrucciones en pantalla para finalizar una tarea. Para obtener más detalles, siga las instrucciones de Creación y configuración de un cluster de zona de Guía de instalación del software de Oracle Solaris Cluster.

Véase también

Consulte las páginas del comando man clsetup o clzonecluster para obtener más información.

Visualización de la información de versión de Oracle Solaris Cluster

Para realizar este procedimiento no es necesario iniciar sesión como rol root. Siga todos los pasos de este procedimiento desde un nodo del clúster global.

phys-schost# refleja un indicador de clúster global. Siga este procedimiento en un clúster global.

Este procedimiento proporciona las formas largas de los comandos de Oracle Solaris Cluster. La mayoría de los comandos también tienen una forma corta. A excepción de las formas de los nombres de comandos, los comandos son idénticos.

Ejemplo 1-1 Visualización de la información de versión de Oracle Solaris Cluster

En el siguiente ejemplo, se muestra la información de la versión del cluster y de la versión de los paquetes que se enviaron con Oracle Solaris Cluster 4.1.

phys-schost# clnode show-rev
4.1

phys-schost#% clnode show-rev -v

Oracle Solaris Cluster 4.1 for Solaris 11 sparc
ha-cluster/data-service/apache                             :4.1-0.18
ha-cluster/data-service/dhcp                               :4.1-0.18
ha-cluster/data-service/dns                                :4.1-0.18
ha-cluster/data-service/glassfish-message-queue            :4.1-0.18
ha-cluster/data-service/ha-ldom                            :4.1-0.18
ha-cluster/data-service/ha-zones                           :4.1-0.18
ha-cluster/data-service/iplanet-web-server                 :4.1-0.18
ha-cluster/data-service/nfs                                :4.1-0.18
ha-cluster/data-service/oracle-database                    :4.1-0.18
ha-cluster/data-service/oracle-external-proxy              :4.1-0.18
ha-cluster/data-service/oracle-http-server                 :4.1-0.18
ha-cluster/data-service/oracle-pmn-server                  :4.1-0.18
ha-cluster/data-service/oracle-traffic-director            :4.1-0.18
ha-cluster/data-service/peoplesoft                         :4.1-0.18
ha-cluster/data-service/sapnetweaver                       :4.1-0.18
ha-cluster/data-service/tomcat                             :4.1-0.18
ha-cluster/data-service/weblogic                           :4.1-0.18
ha-cluster/developer/agent-builder                         :4.1-0.18
ha-cluster/developer/api                                   :4.1-0.18
ha-cluster/geo/geo-framework                               :4.1-0.18
ha-cluster/geo/manual                                      :4.1-0.18
ha-cluster/geo/replication/availability-suite              :4.1-0.18
ha-cluster/geo/replication/data-guard                      :4.1-0.18
ha-cluster/geo/replication/sbp                             :4.1-0.18
ha-cluster/geo/replication/srdf                            :4.1-0.18
ha-cluster/geo/replication/zfs-sa                          :4.1-0.18
ha-cluster/group-package/ha-cluster-data-services-full     :4.1-0.18
ha-cluster/group-package/ha-cluster-framework-full         :4.1-0.18
ha-cluster/group-package/ha-cluster-framework-l10n         :4.1-0.18
ha-cluster/group-package/ha-cluster-framework-minimal      :4.1-0.18
ha-cluster/group-package/ha-cluster-framework-scm          :4.1-0.18
ha-cluster/group-package/ha-cluster-framework-slm          :4.1-0.18
ha-cluster/group-package/ha-cluster-full                   :4.1-0.18
ha-cluster/group-package/ha-cluster-geo-full               :4.1-0.18
ha-cluster/group-package/ha-cluster-geo-incorporation      :4.1-0.18
ha-cluster/group-package/ha-cluster-incorporation          :4.1-0.18
ha-cluster/group-package/ha-cluster-minimal                :4.1-0.18
ha-cluster/group-package/ha-cluster-quorum-server-full     :4.1-0.18
ha-cluster/group-package/ha-cluster-quorum-server-l10n     :4.1-0.18
ha-cluster/ha-service/derby                                :4.1-0.18
ha-cluster/ha-service/gds                                  :4.1-0.18
ha-cluster/ha-service/logical-hostname                     :4.1-0.18
ha-cluster/ha-service/smf-proxy                            :4.1-0.18
ha-cluster/ha-service/telemetry                            :4.1-0.18
ha-cluster/library/cacao                                   :4.1-0.18
ha-cluster/library/ucmm                                    :4.1-0.18
ha-cluster/locale                                          :4.1-0.18
ha-cluster/release/name                                    :4.1-0.18
ha-cluster/service/management                              :4.1-0.18
ha-cluster/service/management/slm                          :4.1-0.18
ha-cluster/service/quorum-server                           :4.1-0.18
ha-cluster/service/quorum-server/locale                    :4.1-0.18
ha-cluster/service/quorum-server/manual/locale             :4.1-0.18
ha-cluster/storage/svm-mediator                            :4.1-0.18
ha-cluster/system/cfgchk                                   :4.1-0.18
ha-cluster/system/core                                     :4.1-0.18
ha-cluster/system/dsconfig-wizard                          :4.1-0.18
ha-cluster/system/install                                  :4.1-0.18
ha-cluster/system/manual                                   :4.1-0.18
ha-cluster/system/manual/data-services                     :4.1-0.18
ha-cluster/system/manual/locale                            :4.1-0.18

Visualización de tipos de recursos configurados, grupos de recursos y recursos

phys-schost# refleja un indicador de clúster global. Siga este procedimiento en un clúster global.

Este procedimiento proporciona las formas largas de los comandos de Oracle Solaris Cluster. La mayoría de los comandos también tienen una forma corta. A excepción de las formas de los nombres de comandos, los comandos son idénticos.

Antes de empezar

Los usuarios que no tienen el rol root deben contar con la autorización RBAC solaris.cluster.read para utilizar este subcomando.

Ejemplo 1-2 Visualización de tipos de recursos, grupos de recursos y recursos configurados

En el ejemplo siguiente se muestran los tipos de recursos (RT Name), los grupos de recursos (RG Name) y los recursos (RS Name ) configurados para el clúster schost.

phys-schost# cluster show -t resource,resourcetype,resourcegroup


=== Registered Resource Types ===

Resource Type:                                SUNW.sctelemetry
    RT_description:                                sctelemetry service for Oracle Solaris Cluster
    RT_version:                                    1
    API_version:                                   7
    RT_basedir:                                    /usr/cluster/lib/rgm/rt/sctelemetry
    Single_instance:                               True
    Proxy:                                         False
    Init_nodes:                                    All potential masters
    Installed_nodes:                               <All>
    Failover:                                      False
    Pkglist:                                       <NULL>
    RT_system:                                     True
    Global_zone:                                   True

 === Resource Groups and Resources ===

Resource Group:                                 tel-rg
  RG_description:                                  <NULL>
  RG_mode:                                         Failover
  RG_state:                                        Managed
  Failback:                                        False
  Nodelist:                                        phys-schost-2 phys-schost-1

  --- Resources for Group tel-rg ---

  Resource:                                     tel-res
    Type:                                          SUNW.sctelemetry
    Type_version:                                  4.0
    Group:                                         tel-rg
    R_description:                                 
    Resource_project_name:                         default
    Enabled{phys-schost-2}:                        True
    Enabled{phys-schost-1}:                        True
    Monitored{phys-schost-2}:                      True
    Monitored{phys-schost-1}:                      True

Comprobación del estado de los componentes del clúster

El comando cluster status muestra el estado de un clúster de zona.

phys-schost# refleja un indicador de clúster global. Siga este procedimiento en un clúster global.

Este procedimiento proporciona las formas largas de los comandos de Oracle Solaris Cluster. La mayoría de los comandos también tienen una forma corta. A excepción de las formas de los nombres de comandos, los comandos son idénticos.

Antes de empezar

Los usuarios que no tienen el rol root necesitan la autorización RBAC solaris.cluster.read para utilizar el subcomando status.

Ejemplo 1-3 Comprobación del estado de los componentes del clúster

En el siguiente ejemplo se muestra parte de la información de estado de los componentes del clúster devueltos por el comando cluster status.

phys-schost# cluster status
=== Cluster Nodes ===

--- Node Status ---

Node Name                                       Status
---------                                       ------
phys-schost-1                                   Online
phys-schost-2                                   Online


=== Cluster Transport Paths ===

Endpoint1              Endpoint2              Status
---------              ---------              ------
phys-schost-1:nge1     phys-schost-4:nge1     Path online
phys-schost-1:e1000g1  phys-schost-4:e1000g1  Path online


=== Cluster Quorum ===

--- Quorum Votes Summary ---

            Needed   Present   Possible
            ------   -------   --------
            3        3         4


--- Quorum Votes by Node ---

Node Name       Present       Possible       Status
---------       -------       --------       ------
phys-schost-1   1             1              Online
phys-schost-2   1             1              Online


--- Quorum Votes by Device ---

Device Name           Present      Possible      Status
-----------           -------      --------      ------
/dev/did/rdsk/d2s2    1            1             Online
/dev/did/rdsk/d8s2    0            1             Offline


=== Cluster Device Groups ===

--- Device Group Status ---

Device Group Name     Primary          Secondary    Status
-----------------     -------          ---------    ------
schost-2              phys-schost-2     -           Degraded


--- Spare, Inactive, and In Transition Nodes ---

Device Group Name   Spare Nodes   Inactive Nodes   In Transistion Nodes
-----------------   -----------   --------------   --------------------
schost-2            -             -                -


=== Cluster Resource Groups ===

Group Name        Node Name           Suspended      Status
----------        ---------           ---------      ------
test-rg           phys-schost-1       No             Offline
                  phys-schost-2       No             Online

test-rg           phys-schost-1       No             Offline
                  phys-schost-2       No             Error--stop failed

test-rg           phys-schost-1       No             Online
                  phys-schost-2       No             Online


=== Cluster Resources ===

Resource Name     Node Name          Status          Message
-------------     ---------          ------          -------
test_1            phys-schost-1      Offline         Offline
                  phys-schost-2      Online          Online

test_1            phys-schost-1      Offline         Offline
                  phys-schost-2      Stop failed     Faulted

test_1            phys-schost-1      Online          Online
                  phys-schost-2      Online          Online


Device Instance             Node                     Status
---------------             ----                     ------
/dev/did/rdsk/d2            phys-schost-1            Ok

/dev/did/rdsk/d3            phys-schost-1            Ok
                            phys-schost-2            Ok

/dev/did/rdsk/d4            phys-schost-1            Ok
                            phys-schost-2            Ok

/dev/did/rdsk/d6            phys-schost-2            Ok



=== Zone Clusters ===

--- Zone Cluster Status ---

Name      Node Name   Zone HostName   Status    Zone Status
----      ---------   -------------   ------    -----------
sczone    schost-1    sczone-1        Online    Running
          schost-2    sczone-2        Online    Running

Comprobación del estado de la red pública

phys-schost# refleja un indicador de clúster global. Siga este procedimiento en un clúster global.

Este procedimiento proporciona las formas largas de los comandos de Oracle Solaris Cluster. La mayoría de los comandos también tienen una forma corta. A excepción de las formas de los nombres de comandos, los comandos son idénticos.

Para comprobar el estado de los grupos de múltiples rutas de red IP, utilice el comando con el comando clnode status.

Antes de empezar

Los usuarios que no tienen el rol root necesitan la autorización RBAC solaris.cluster.read para utilizar este subcomando.

Ejemplo 1-4 Comprobación del estado de la red pública

En el siguiente ejemplo se muestra parte de la información de estado de los componentes del clúster devueltos por el comando clnode status.

% clnode status -m
--- Node IPMP Group Status ---

Node Name         Group Name    Status    Adapter    Status
---------         ----------    ------    -------    ------
phys-schost-1     test-rg       Online    nge2       Online
phys-schost-2     test-rg       Online    nge3       Online 

Visualización de la configuración del clúster

phys-schost# refleja un indicador de clúster global. Siga este procedimiento en un clúster global.

Este procedimiento proporciona las formas largas de los comandos de Oracle Solaris Cluster. La mayoría de los comandos también tienen una forma corta. A excepción de las formas de los nombres de comandos, los comandos son idénticos.

Antes de empezar

Los usuarios que no tienen el rol root necesitan la autorización RBAC solaris.cluster.read para utilizar el subcomando status.

Ejemplo 1-5 Visualización de la configuración del clúster global

En el ejemplo siguiente figura información de configuración sobre el clúster global. Si tiene configurado un clúster de zona, también se enumera la pertinente información.

phys-schost# cluster show
=== Cluster ===                                

Cluster Name:                                   cluster-1
  clusterid:                                       0x4DA2C888
  installmode:                                     disabled
  heartbeat_timeout:                               10000
  heartbeat_quantum:                               1000
  private_netaddr:                                 172.11.0.0
  private_netmask:                                 255.255.248.0
  max_nodes:                                       64
  max_privatenets:                                 10
  num_zoneclusters:                                12
  udp_session_timeout:                             480
  concentrate_load:                                False
  global_fencing:                                  prefer3
  Node List:                                       phys-schost-1
  Node Zones:                                      phys_schost-2:za

  === Host Access Control ===                  

  Cluster name:                                 clustser-1
    Allowed hosts:                                 phys-schost-1, phys-schost-2:za
    Authentication Protocol:                       sys

  === Cluster Nodes ===                        

  Node Name:                                    phys-schost-1
    Node ID:                                       1
    Enabled:                                       yes
    privatehostname:                               clusternode1-priv
    reboot_on_path_failure:                        disabled
    globalzoneshares:                              3
    defaultpsetmin:                                1
    quorum_vote:                                   1
    quorum_defaultvote:                            1
    quorum_resv_key:                               0x43CB1E1800000001
    Transport Adapter List:                        net1, net3

    --- Transport Adapters for phys-schost-1 ---    

    Transport Adapter:                          net1
      Adapter State:                               Enabled
      Adapter Transport Type:                      dlpi
      Adapter Property(device_name):               net
      Adapter Property(device_instance):           1
      Adapter Property(lazy_free):                 1
      Adapter Property(dlpi_heartbeat_timeout):    10000
      Adapter Property(dlpi_heartbeat_quantum):    1000
      Adapter Property(nw_bandwidth):              80
      Adapter Property(bandwidth):                 10
      Adapter Property(ip_address):                172.16.1.1
      Adapter Property(netmask):                   255.255.255.128
      Adapter Port Names:                          0
      Adapter Port State(0):                       Enabled

    Transport Adapter:                          net3
      Adapter State:                               Enabled
      Adapter Transport Type:                      dlpi
      Adapter Property(device_name):               net
      Adapter Property(device_instance):           3
      Adapter Property(lazy_free):                 0
      Adapter Property(dlpi_heartbeat_timeout):    10000
      Adapter Property(dlpi_heartbeat_quantum):    1000
      Adapter Property(nw_bandwidth):              80
      Adapter Property(bandwidth):                 10
      Adapter Property(ip_address):                172.16.0.129
      Adapter Property(netmask):                   255.255.255.128
      Adapter Port Names:                          0
      Adapter Port State(0):                       Enabled

    --- SNMP MIB Configuration on phys-schost-1 --- 

    SNMP MIB Name:                              Event
      State:                                       Disabled
      Protocol:                                    SNMPv2

    --- SNMP Host Configuration on phys-schost-1 ---

    --- SNMP User Configuration on phys-schost-1 ---

    SNMP User Name:                             foo
      Authentication Protocol:                     MD5
      Default User:                                No

  Node Name:                                    phys-schost-2:za
    Node ID:                                       2
    Type:                                          cluster
    Enabled:                                       yes
    privatehostname:                               clusternode2-priv
    reboot_on_path_failure:                        disabled
    globalzoneshares:                              1
    defaultpsetmin:                                2
    quorum_vote:                                   1
    quorum_defaultvote:                            1
    quorum_resv_key:                               0x43CB1E1800000002
    Transport Adapter List:                        e1000g1, nge1

    --- Transport Adapters for phys-schost-2 ---    

    Transport Adapter:                          e1000g1
      Adapter State:                               Enabled
      Adapter Transport Type:                      dlpi
      Adapter Property(device_name):               e1000g
      Adapter Property(device_instance):           2
      Adapter Property(lazy_free):                 0
      Adapter Property(dlpi_heartbeat_timeout):    10000
      Adapter Property(dlpi_heartbeat_quantum):    1000
      Adapter Property(nw_bandwidth):              80
      Adapter Property(bandwidth):                 10
      Adapter Property(ip_address):                172.16.0.130
      Adapter Property(netmask):                   255.255.255.128
      Adapter Port Names:                          0
      Adapter Port State(0):                       Enabled

    Transport Adapter:                          nge1
      Adapter State:                               Enabled
      Adapter Transport Type:                      dlpi
      Adapter Property(device_name):               nge
      Adapter Property(device_instance):           3
      Adapter Property(lazy_free):                 1
      Adapter Property(dlpi_heartbeat_timeout):    10000
      Adapter Property(dlpi_heartbeat_quantum):    1000
      Adapter Property(nw_bandwidth):              80
      Adapter Property(bandwidth):                 10
      Adapter Property(ip_address):                172.16.1.2
      Adapter Property(netmask):                   255.255.255.128
      Adapter Port Names:                          0
      Adapter Port State(0):                       Enabled

    --- SNMP MIB Configuration on phys-schost-2 --- 

    SNMP MIB Name:                              Event
      State:                                       Disabled
      Protocol:                                    SNMPv2

    --- SNMP Host Configuration on phys-schost-2 ---

    --- SNMP User Configuration on phys-schost-2 ---

  === Transport Cables ===                     

  Transport Cable:                              phys-schost-1:e1000g1,switch2@1
    Cable Endpoint1:                               phys-schost-1:e1000g1
    Cable Endpoint2:                               switch2@1
    Cable State:                                   Enabled

  Transport Cable:                              phys-schost-1:nge1,switch1@1
    Cable Endpoint1:                               phys-schost-1:nge1
    Cable Endpoint2:                               switch1@1
    Cable State:                                   Enabled

  Transport Cable:                              phys-schost-2:nge1,switch1@2
    Cable Endpoint1:                               phys-schost-2:nge1
    Cable Endpoint2:                               switch1@2
    Cable State:                                   Enabled

  Transport Cable:                              phys-schost-2:e1000g1,switch2@2
    Cable Endpoint1:                               phys-schost-2:e1000g1
    Cable Endpoint2:                               switch2@2
    Cable State:                                   Enabled

  === Transport Switches ===                   

  Transport Switch:                             switch2
    Switch State:                                  Enabled
    Switch Type:                                   switch
    Switch Port Names:                             1 2
    Switch Port State(1):                          Enabled
    Switch Port State(2):                          Enabled

  Transport Switch:                             switch1
    Switch State:                                  Enabled
    Switch Type:                                   switch
    Switch Port Names:                             1 2
    Switch Port State(1):                          Enabled
    Switch Port State(2):                          Enabled


  === Quorum Devices ===                       

  Quorum Device Name:                           d3
    Enabled:                                       yes
    Votes:                                         1
    Global Name:                                   /dev/did/rdsk/d3s2
    Type:                                          shared_disk
    Access Mode:                                   scsi3
    Hosts (enabled):                               phys-schost-1, phys-schost-2

  Quorum Device Name:                           qs1
    Enabled:                                       yes
    Votes:                                         1
    Global Name:                                   qs1
    Type:                                          quorum_server
    Hosts (enabled):                               phys-schost-1, phys-schost-2
    Quorum Server Host:                            10.11.114.83
    Port:                                          9000


  === Device Groups ===                        

  Device Group Name:                            testdg3
    Type:                                          SVM
    failback:                                      no
    Node List:                                     phys-schost-1, phys-schost-2
    preferenced:                                   yes
    numsecondaries:                                1
    diskset name:                                  testdg3

  === Registered Resource Types ===            

  Resource Type:                                SUNW.LogicalHostname:2
    RT_description:                                Logical Hostname Resource Type
    RT_version:                                    4
    API_version:                                   2
    RT_basedir:                                    /usr/cluster/lib/rgm/rt/hafoip
    Single_instance:                               False
    Proxy:                                         False
    Init_nodes:                                    All potential masters
    Installed_nodes:                               <All>
    Failover:                                      True
    Pkglist:                                       <NULL>
    RT_system:                                     True
    Global_zone:                                   True

  Resource Type:                                SUNW.SharedAddress:2
    RT_description:                                HA Shared Address Resource Type
    RT_version:                                    2
    API_version:                                   2
    RT_basedir:                                    /usr/cluster/lib/rgm/rt/hascip
    Single_instance:                               False
    Proxy:                                         False
    Init_nodes:                                    <Unknown>
    Installed_nodes:                               <All>
    Failover:                                      True
    Pkglist:                                       <NULL>
    RT_system:                                     True
    Global_zone:                                   True
  Resource Type:                                SUNW.HAStoragePlus:4
    RT_description:                                HA Storage Plus
    RT_version:                                    4
    API_version:                                   2
    RT_basedir:                                    /usr/cluster/lib/rgm/rt/hastorageplus
    Single_instance:                               False
    Proxy:                                         False
    Init_nodes:                                    All potential masters
    Installed_nodes:                               <All>
    Failover:                                      False
    Pkglist:                                       <NULL>
    RT_system:                                     True
    Global_zone:                                   True
  Resource Type:                                SUNW.haderby
    RT_description:                                haderby server for Oracle Solaris Cluster
    RT_version:                                    1
    API_version:                                   7
    RT_basedir:                                    /usr/cluster/lib/rgm/rt/haderby
    Single_instance:                               False
    Proxy:                                         False
    Init_nodes:                                    All potential masters
    Installed_nodes:                               <All>
    Failover:                                      False
    Pkglist:                                       <NULL>
    RT_system:                                     True
    Global_zone:                                   True
  Resource Type:                                SUNW.sctelemetry
    RT_description:                                sctelemetry service for Oracle Solaris Cluster
    RT_version:                                    1
    API_version:                                   7
    RT_basedir:                                    /usr/cluster/lib/rgm/rt/sctelemetry
    Single_instance:                               True
    Proxy:                                         False
    Init_nodes:                                    All potential masters
    Installed_nodes:                               <All>
    Failover:                                      False
    Pkglist:                                       <NULL>
    RT_system:                                     True
    Global_zone:                                   True
  === Resource Groups and Resources ===        

  Resource Group:                               HA_RG
    RG_description:                                <Null>
    RG_mode:                                       Failover
    RG_state:                                      Managed
    Failback:                                      False
    Nodelist:                                      phys-schost-1 phys-schost-2

    --- Resources for Group HA_RG ---          

    Resource:                                   HA_R
      Type:                                        SUNW.HAStoragePlus:4
      Type_version:                                4
      Group:                                       HA_RG
      R_description:                               
      Resource_project_name:                       SCSLM_HA_RG
      Enabled{phys-schost-1}:                      True
      Enabled{phys-schost-2}:                      True
      Monitored{phys-schost-1}:                    True
      Monitored{phys-schost-2}:                    True

  Resource Group:                               cl-db-rg
    RG_description:                                <Null>
    RG_mode:                                       Failover
    RG_state:                                      Managed
    Failback:                                      False
    Nodelist:                                      phys-schost-1 phys-schost-2

    --- Resources for Group cl-db-rg ---       

    Resource:                                   cl-db-rs
      Type:                                        SUNW.haderby
      Type_version:                                1
      Group:                                       cl-db-rg
      R_description:                               
      Resource_project_name:                       default
      Enabled{phys-schost-1}:                      True
      Enabled{phys-schost-2}:                      True
      Monitored{phys-schost-1}:                    True
      Monitored{phys-schost-2}:                    True

  Resource Group:                               cl-tlmtry-rg
    RG_description:                                <Null>
    RG_mode:                                       Scalable
    RG_state:                                      Managed
    Failback:                                      False
    Nodelist:                                      phys-schost-1 phys-schost-2

    --- Resources for Group cl-tlmtry-rg ---   

    Resource:                                   cl-tlmtry-rs
      Type:                                        SUNW.sctelemetry
      Type_version:                                1
      Group:                                       cl-tlmtry-rg
      R_description:                               
      Resource_project_name:                       default
      Enabled{phys-schost-1}:                      True
      Enabled{phys-schost-2}:                      True
      Monitored{phys-schost-1}:                    True
      Monitored{phys-schost-2}:                    True

  === DID Device Instances ===                 

  DID Device Name:                              /dev/did/rdsk/d1
    Full Device Path:                              phys-schost-1:/dev/rdsk/c0t2d0
    Replication:                                   none
    default_fencing:                               global

  DID Device Name:                              /dev/did/rdsk/d2
    Full Device Path:                              phys-schost-1:/dev/rdsk/c1t0d0
    Replication:                                   none
    default_fencing:                               global

  DID Device Name:                              /dev/did/rdsk/d3
    Full Device Path:                              phys-schost-2:/dev/rdsk/c2t1d0
    Full Device Path:                              phys-schost-1:/dev/rdsk/c2t1d0
    Replication:                                   none
    default_fencing:                               global

  DID Device Name:                              /dev/did/rdsk/d4
    Full Device Path:                              phys-schost-2:/dev/rdsk/c2t2d0
    Full Device Path:                              phys-schost-1:/dev/rdsk/c2t2d0
    Replication:                                   none
    default_fencing:                               global

  DID Device Name:                              /dev/did/rdsk/d5
    Full Device Path:                              phys-schost-2:/dev/rdsk/c0t2d0
    Replication:                                   none
    default_fencing:                               global

  DID Device Name:                              /dev/did/rdsk/d6
    Full Device Path:                              phys-schost-2:/dev/rdsk/c1t0d0
    Replication:                                   none
    default_fencing:                               global

  === NAS Devices ===                          

  Nas Device:                                   nas_filer1
    Type:                                          sun_uss
    nodeIPs{phys-schost-2}:                        10.134.112.112
    nodeIPs{phys-schost-1                          10.134.112.113
    User ID:                                       root

Ejemplo 1-6 Visualización de la información del clúster de zona

El siguiente ejemplo lista las propiedades de la configuración del clúster de zona con RAC.

% clzonecluster show
=== Zone Clusters ===

Zone Cluster Name:                              sczone
  zonename:                                        sczone
  zonepath:                                        /zones/sczone
  autoboot:                                        TRUE
  ip-type:                                         shared
  enable_priv_net:                                 TRUE

  --- Solaris Resources for sczone ---

  Resource Name:                                net
    address:                                       172.16.0.1
    physical:                                      auto

  Resource Name:                                net
    address:                                       172.16.0.2
    physical:                                      auto


 Resource Name:                                 fs
   dir:                                            /local/ufs-1
   special:                                        /dev/md/ds1/dsk/d0
   raw:                                            /dev/md/ds1/rdsk/d0
   type:                                           ufs
   options:                                        [logging]

   --- Zone Cluster Nodes for sczone ---

  Node Name:                                    sczone-1
    physical-host:                                 sczone-1
    hostname:                                      lzzone-1

  Node Name:                                    sczone-2
    physical-host:                                 sczone-2
    hostname:                                      lzzone-2

También puede ver los dispositivos NAS que se han configurado para clústeres globales o de zona utilizando el subcomando clnasdevice show. Para obtener más información, consulte la página del comando man clnasdevice(1CL).

Validación de una configuración básica de clúster

El comando cluster utiliza el subcomando check para validar la configuración básica que se requiere para que un cluster global funcione correctamente. Si ninguna comprobación falla, cluster check vuelve al indicador del shell. Si falla alguna de las comprobaciones, cluster check emite informes que aparecen en el directorio de salida que se haya especificado o en el predeterminado. Si ejecuta cluster check con más de un nodo, cluster check emite un informe para cada nodo y un informe para las comprobaciones que comprenden varios nodos. También puede utilizar el comando cluster list-checks para que se muestre una lista con todas las comprobaciones disponibles para el clúster.

Además de las comprobaciones básicas, que se ejecutan sin la interacción del usuario, el comando también puede ejecutar comprobaciones interactivas y funcionales. Las comprobaciones básicas se ejecutan cuando la opción -k keyword no se especifica.

Puede ejecutar el comando cluster check en modo detallado con el indicador -v para que se muestre la información de progreso.


Nota - Ejecute cluster check después de realizar un procedimiento de administración que pueda provocar modificaciones en los dispositivos, en los componentes de administración de volúmenes o en la configuración de Oracle Solaris Cluster.


Al ejecutar el comando clzonecluster(1CL) en el nodo del cluster global, se lleva a cabo un conjunto de comprobaciones con el fin de validar la configuración necesaria para que un cluster de zona funcione correctamente. Si todas las comprobaciones son correctas, clzonecluster verify devuelve al indicador de shell y el clúster de zona se puede instalar con seguridad. Si falla alguna de las comprobaciones, clzonecluster verify informa sobre los nodos del clúster global en los que la verificación no obtuvo un resultado correcto. Si ejecuta clzonecluster verify respecto a más de un nodo, se emite un informe para cada nodo y un informe para las comprobaciones que comprenden varios nodos. No se permite utilizar el subcomando verify dentro de los clústeres de zona.

  1. Asuma el rol root en un nodo de miembro activo en un cluster global.
    phys-schost# su

    Siga todos los pasos de este procedimiento desde un nodo del clúster global.

  2. Asegúrese de que dispone de las comprobaciones más actuales.
    1. Vaya a la ficha Patches & Updates (Parches y actualizaciones) de My Oracle Support.
    2. En la búsqueda avanzada, seleccione Solaris Cluster como el producto y escriba comprobación en el campo de descripción.

      La búsqueda localiza actualizaciones del software de Oracle Solaris Cluster que contienen comprobaciones.

    3. Aplique las actualizaciones del software que no aún no estén instaladas en el clúster.
  3. Ejecute las comprobaciones de validación básicas.
    phys-schost# cluster check -v -o outputdir
    -v

    Modo detallado.

    -o outputdir

    Redirige la salida al subdirectorio outputdir.

    El comando ejecuta todas las comprobaciones básicas disponibles. No se ve afectada ninguna función del clúster.

  4. Ejecute las comprobaciones de validación interactivas.
    phys-schost# cluster check -v -k interactive -o outputdir
    -k interactive

    Especifica comprobaciones de validación interactivas en ejecución

    El comando ejecuta todas las comprobaciones de validación interactivas disponibles y le solicita información necesaria sobre el clúster. No se ve afectada ninguna función del clúster.

  5. Ejecute las comprobaciones de validación funcionales.
    1. Enumere todas las comprobaciones funcionales disponibles en el modo detallado.
      phys-schost# cluster list-checks -k functional
    2. Determine qué comprobaciones funcionales realizan acciones que puedan afectar a la disponibilidad o los servicios del clúster en un entorno de producción.

      Por ejemplo, una comprobación funcional puede desencadenar que el nodo genere avisos graves o una conmutación por error a otro nodo.

      phys-schost# cluster list-checks -v -C check-ID
      -C check-ID

      Especifica un una comprobación específica.

    3. Si hay peligro de que la comprobación funcional que desea efectuar interrumpa el funcionamiento del clúster, asegúrese de que el clúster no esté en producción.
    4. Inicie la comprobación funcional.
      phys-schost# cluster check -v -k functional -C check-ID -o outputdir
      -k functional

      Especifica comprobaciones de validación funcionales en ejecución.

      Responda a las peticiones de la comprobación para confirmar la ejecución de la comprobación y para cualquier información o acciones que deba realizar.

    5. Repita el Paso c y el Paso d para cada comprobación funcional que quede por ejecutar.

      Nota - Para fines de registro, especifique un único nombre de subdirectorio outputdir para cada comprobación que se ejecuta. Si vuelve a utilizar un nombre outputdir, la salida para la nueva comprobación sobrescribe el contenido existente del subdirectorio outputdir reutilizado.


  6. Compruebe la configuración del clúster de zona para ver si es posible instalar un clúster de zona.
    phys-schost# clzonecluster verify zoneclustername
  7. Grabe la configuración del clúster para poder realizar tareas de diagnóstico en el futuro.

    Consulte Cómo registrar los datos de diagnóstico de la configuración del clúster de Guía de instalación del software de Oracle Solaris Cluster.

Ejemplo 1-7 Comprobación de la configuración del clúster global con resultado correcto en todas las comprobaciones básicas

El ejemplo siguiente muestra cómo la ejecución de cluster check en modo detallado respecto a los nodos phys-schost-1 y phys-schost-2 supera correctamente todas las comprobaciones.

phys-schost# cluster check -v -h phys-schost-1, phys-schost-2

cluster check: Requesting explorer data and node report from phys-schost-1.
cluster check: Requesting explorer data and node report from phys-schost-2.
cluster check: phys-schost-1: Explorer finished.
cluster check: phys-schost-1: Starting single-node checks.
cluster check: phys-schost-1: Single-node checks finished.
cluster check: phys-schost-2: Explorer finished.
cluster check: phys-schost-2: Starting single-node checks.
cluster check: phys-schost-2: Single-node checks finished.
cluster check: Starting multi-node checks.
cluster check: Multi-node checks finished
# 

Ejemplo 1-8 Listado de comprobaciones de validación interactivas

En el siguiente ejemplo se enumeran todas las comprobaciones interactivas que están disponibles para ejecutarse en el clúster. En la salida del ejemplo aparece un muestreo de posibles comprobaciones; las comprobaciones disponibles reales varían en cada configuración.

# cluster list-checks -k interactive
 Some checks might take a few moments to run (use -v to see progress)...
 I6994574  :   (Moderate)   Fix for GLDv3 interfaces on cluster transport vulnerability applied?

Ejemplo 1-9 Ejecución de una comprobación de validación funcional

El siguiente ejemplo muestra primero el listado detallado de comprobaciones funcionales. La descripción detallada aparece en una lista para la comprobación F6968101, que indica que la comprobación podría alterar los servicios del clúster. El clúster se elimina de la producción. La comprobación funcional se ejecuta con salida detallada registrada en el subdirectorio funct.test.F6968101.12Jan2011. En la salida de ejemplo aparece un muestreo de posibles comprobaciones; las comprobaciones disponibles reales varían en cada configuración.

# cluster list-checks -k functional
 F6968101  :   (Critical)   Perform resource group switchover
 F6984120  :   (Critical)   Induce cluster transport network failure - single adapter.
 F6984121  :   (Critical)   Perform cluster shutdown
 F6984140  :   (Critical)   Induce node panic
…

# cluster list-checks -v -C F6968101
 F6968101: (Critical) Perform resource group switchover
Keywords: SolarisCluster3.x, functional
Applicability: Applicable if multi-node cluster running live.
Check Logic: Select a resource group and destination node. Perform 
'/usr/cluster/bin/clresourcegroup switch' on specified resource group 
either to specified node or to all nodes in succession.
Version: 1.2
Revision Date: 12/10/10 

Take the cluster out of production

# cluster check -k functional -C F6968101 -o funct.test.F6968101.12Jan2011
F6968101 
  initializing...
  initializing xml output...
  loading auxiliary data...
  starting check run...
     pschost1, pschost2, pschost3, pschost4:     F6968101.... starting:  
Perform resource group switchover           


  ============================================================

   >>> Functional Check <<<

    'Functional' checks exercise cluster behavior. It is recommended that you
    do not run this check on a cluster in production mode.' It is recommended
    that you have access to the system console for each cluster node and
    observe any output on the consoles while the check is executed.

    If the node running this check is brought down during execution the check
    must be rerun from this same node after it is rebooted into the cluster in
    order for the check to be completed.

    Select 'continue' for more details on this check.

          1) continue
          2) exit

          choice: 1


  ============================================================

   >>> Check Description <<<
…
Follow onscreen directions

Ejemplo 1-10 Comprobación de la configuración del clúster global con una comprobación con resultado no satisfactorio

El ejemplo siguiente muestra el nodo phys-schost-2, perteneciente al clúster denominado suncluster, excepto el punto de montaje /global/phys-schost-1. Los informes se crean en el directorio de salida /var/cluster/logs/cluster_check/<timestamp> .

phys-schost# cluster check -v -h phys-schost-1, 
phys-schost-2 -o  /var/cluster/logs/cluster_check/Dec5/

cluster check: Requesting explorer data and node report from phys-schost-1.
cluster check: Requesting explorer data and node report from phys-schost-2.
cluster check: phys-schost-1: Explorer finished.
cluster check: phys-schost-1: Starting single-node checks.
cluster check: phys-schost-1: Single-node checks finished.
cluster check: phys-schost-2: Explorer finished.
cluster check: phys-schost-2: Starting single-node checks.
cluster check: phys-schost-2: Single-node checks finished.
cluster check: Starting multi-node checks.
cluster check: Multi-node checks finished.
cluster check: One or more checks failed.
cluster check: The greatest severity of all check failures was 3 (HIGH).
cluster check: Reports are in /var/cluster/logs/cluster_check/<Dec5>.
# 
# cat /var/cluster/logs/cluster_check/Dec5/cluster_check-results.suncluster.txt
...
===================================================
= ANALYSIS DETAILS =
===================================================
------------------------------------
CHECK ID : 3065
SEVERITY : HIGH
FAILURE  : Global filesystem /etc/vfstab entries are not consistent across 
all Oracle Solaris  Cluster 4.x nodes.
ANALYSIS : The global filesystem /etc/vfstab entries are not consistent across 
all nodes in this cluster.
Analysis indicates:
FileSystem '/global/phys-schost-1' is on 'phys-schost-1' but missing from 'phys-schost-2'.
RECOMMEND: Ensure each node has the correct /etc/vfstab entry for the 
filesystem(s) in question.
...
 #

Comprobación de los puntos de montaje globales

El comando cluster incluye comprobaciones que verifican el archivo /etc/vfstab para detectar posibles errores de configuración con el sistema de archivos del clúster y sus puntos de montaje globales. Para obtener más información, consulte la página del comando man cluster(1CL).


Nota - Ejecute cluster check después de efectuar cambios en la configuración del clúster que hayan afectado a los dispositivos o a los componentes de administración de volúmenes.


  1. Asuma el rol root en un nodo de miembro activo en un cluster global.

    Siga todos los pasos de este procedimiento desde un nodo del clúster global.

    % su
  2. Compruebe la configuración del clúster global.
    phys-schost# cluster check

Ejemplo 1-11 Comprobación de puntos de montaje globales

El ejemplo siguiente muestra el nodo phys-schost-2 del clúster denominado suncluster, excepto el punto de montaje /global/schost-1 . Los informes se envían al directorio de salida, /var/cluster/logs/cluster_check/<timestamp>/ .

phys-schost# cluster check -v1 -h phys-schost-1,phys-schost-2 -o
/var/cluster//logs/cluster_check/Dec5/

cluster check: Requesting explorer data and node report from phys-schost-1.
cluster check: Requesting explorer data and node report from phys-schost-2.
cluster check: phys-schost-1: Explorer finished.
cluster check: phys-schost-1: Starting single-node checks.
cluster check: phys-schost-1: Single-node checks finished.
cluster check: phys-schost-2: Explorer finished.
cluster check: phys-schost-2: Starting single-node checks.
cluster check: phys-schost-2: Single-node checks finished.
cluster check: Starting multi-node checks.
cluster check: Multi-node checks finished.
cluster check: One or more checks failed.
cluster check: The greatest severity of all check failures was 3 (HIGH).
cluster check: Reports are in /var/cluster/logs/cluster_check/Dec5.
# 
# cat /var/cluster/logs/cluster_check/Dec5/cluster_check-results.suncluster.txt

...
===================================================
= ANALYSIS DETAILS =
===================================================
------------------------------------
CHECK ID : 3065
SEVERITY : HIGH
FAILURE  : Global filesystem /etc/vfstab entries are not consistent across 
all Oracle Solaris Cluster 4.x nodes.
ANALYSIS : The global filesystem /etc/vfstab entries are not consistent across 
all nodes in this cluster.
Analysis indicates:
FileSystem '/global/phys-schost-1' is on 'phys-schost-1' but missing from 'phys-schost-2'.
RECOMMEND: Ensure each node has the correct /etc/vfstab entry for the 
filesystem(s) in question.
...
#
# cat /var/cluster/logs/cluster_check/Dec5/cluster_check-results.phys-schost-1.txt

...
===================================================
= ANALYSIS DETAILS =
===================================================
------------------------------------
CHECK ID : 1398
SEVERITY : HIGH
FAILURE  : An unsupported server is being used as an Oracle Solaris Cluster 4.x node.
ANALYSIS : This server may not been qualified to be used as an Oracle Solaris Cluster 4.x node.  
Only servers that have been qualified with Oracle Solaris Cluster 4.0 are supported as 
Oracle Solaris Cluster 4.x nodes.
RECOMMEND: Because the list of supported servers is always being updated, check with 
your Oracle representative to get the latest information on what servers 
are currently supported and only use a server that is supported with Oracle Solaris Cluster 4.x.
...
#

Visualización del contenido de los registros de comandos de Oracle Solaris Cluster

El archivo de texto ASCII /var/cluster/logs/commandlog contiene registros de comandos de Oracle Solaris Cluster seleccionados que se ejecutan en un clúster. Los comandos comienzan a registrarse automáticamente al configurarse el clúster y la operación se finaliza al cerrarse el clúster. Los comandos se registran en todos los nodos activos y que se han arrancado en modo de clúster.

Entre los comandos que no quedan registrados en este archivo están los encargados de mostrar la configuración y el estado actual del clúster.

Entre los comandos que quedan registrados en este archivo están los encargados de configurar y modificar el estado actual del clúster:

Los registros del archivo commandlog pueden contener los elementos siguientes:

De forma predeterminada, el archivo commandlog se archiva periódicamente una vez por semana. Para modificar las directrices de archivado del archivo commandlog, utilice el comando crontab en todos los nodos del clúster. Para obtener más información, consulte la página del comando man crontab(1).

El software Oracle Solaris Cluster conserva en todo momento hasta un máximo de ocho archivos commandlog archivados anteriormente en cada nodo del clúster. El archivo commandlog de la semana actual se denomina commandlog. El archivo semanal completo más reciente se denomina commandlog.0. El archivo semanal completo más antiguo se denomina commandlog.7.

Ejemplo 1-12 Visualización del contenido de los registros de comandos de Oracle Solaris Cluster

El ejemplo siguiente muestra el contenido del archivo commandlog que se visualiza mediante el comando more.

more -lines10 /var/cluster/logs/commandlog
11/11/2006 09:42:51 phys-schost-1 5222 root START - clsetup
11/11/2006 09:43:36 phys-schost-1 5758 root START - clrg add "app-sa-1"
11/11/2006 09:43:36 phys-schost-1 5758 root END 0
11/11/2006 09:43:36 phys-schost-1 5760 root START - clrg set -y
"RG_description=Department Shared Address RG" "app-sa-1"
11/11/2006 09:43:37 phys-schost-1 5760 root END 0
11/11/2006 09:44:15 phys-schost-1 5810 root START - clrg online "app-sa-1"
11/11/2006 09:44:15 phys-schost-1 5810 root END 0
11/11/2006 09:44:19 phys-schost-1 5222 root END -20988320
12/02/2006 14:37:21 phys-schost-1 5542 jbloggs START - clrg -c -g "app-sa-1"
-y "RG_description=Joe Bloggs Shared Address RG"
12/02/2006 14:37:22 phys-schost-1 5542 jbloggs END 0