Omitir Vínculos de navegación | |
Salir de la Vista de impresión | |
Guía de administración del sistema de Oracle Solaris Cluster Oracle Solaris Cluster 4.1 (Español) |
1. Introducción a la administración de Oracle Solaris Cluster
Descripción general de la administración de Oracle Solaris Cluster
Trabajo con un clúster de zona
Restricciones de las funciones del sistema operativo Oracle Solaris
Herramientas de administración
Preparación para administrar el clúster
Documentación de las configuraciones de hardware de Oracle Solaris Cluster
Uso de la consola de administración
Copia de seguridad del clúster
Procedimiento para empezar a administrar el clúster
Inicio de sesión de manera remota en el clúster
Conexión segura a las consolas del clúster
Obtención de acceso a las utilidades de configuración del clúster
Visualización de la información de versión de Oracle Solaris Cluster
Visualización de tipos de recursos configurados, grupos de recursos y recursos
Comprobación del estado de los componentes del clúster
Comprobación del estado de la red pública
Visualización de la configuración del clúster
Validación de una configuración básica de clúster
Comprobación de los puntos de montaje globales
Visualización del contenido de los registros de comandos de Oracle Solaris Cluster
2. Oracle Solaris Cluster y RBAC
3. Cierre y arranque de un clúster
4. Métodos de replicación de datos
7. Administración de interconexiones de clústeres y redes públicas
8. Adición y eliminación de un nodo
10. Configuración del control del uso de la CPU
La Tabla 1-2 proporciona un punto de partida para administrar el clúster.
Tabla 1-2 Herramientas de administración de Oracle Solaris Cluster
|
Puede utilizar la utilidad de acceso a la consola paralela (pconsole) de la línea de comandos para iniciar sesión en el clúster de manera remota. La utilidad pconsole es parte del paquete terminal/pconsole de Oracle Solaris. Instale el paquete ejecutando pkg install terminal/pconsole. La utilidad pconsole crea una ventana de terminal de host para cada host remoto que especifica en la línea de comandos. La utilidad también abre una ventana de consola central o principal que propaga lo que introduce allí a cada una de las conexiones que abre.
La utilidad pconsole se puede ejecutar desde Windows X o en el modo de consola. Instale pconsole en el equipo que utilizará como la consola de administración para el clúster. Si tiene un servidor de terminal que le permite conectarse a números de puertos específicos en la dirección IP del servidor, puede especificar el número de puerto además del nombre de host o dirección IP como terminal-server:portnumber.
Consulte la página del comando man pconsole(1) para obtener más información.
Si el concentrador de terminales o controlador del sistema admite ssh, puede utilizar la utilidad pconsole para conectarse a las consolas de esos sistemas. La utilidad pconsole es parte del paquete terminal/pconsole de Oracle Solaris y se instala cuando se instala el paquete. La utilidad pconsole crea una ventana de terminal de host para cada host remoto que especifica en la línea de comandos. La utilidad también abre una ventana de consola central o principal que propaga lo que introduce allí a cada una de las conexiones que abre. Consulte la página del comando man pconsole(1) para obtener más información.
La utilidad clsetup le permite crear un cluster de zona de manera interactiva y también configurar quórums, grupos de recursos, transportes del cluster, nombres de host privados, grupos de dispositivos y nuevas opciones de nodo para el cluster global. La utilidad clzonecluster realiza tareas de configuración similares para los clústeres de zona. Si desea más información, consulte las páginas de comando man clsetup(1CL) y clzonecluster(1CL).
phys-schost# refleja un indicador de clúster global. Siga este procedimiento en un clúster global.
Este procedimiento proporciona las formas largas de los comandos de Oracle Solaris Cluster. La mayoría de los comandos también tienen una forma corta. A excepción de las formas de los nombres de comandos, los comandos son idénticos.
Siga todos los pasos de este procedimiento desde un nodo del clúster global.
phys-schost# clsetup
phys-schost# clsetup
Se muestra la q.
phys-schost# clzonecluster configure sczone
Con la opción siguiente puede ver las acciones disponibles en la utilidad:
clzc:sczone> ?
También puede utilizar la utilidad clsetup para crear un cluster de zona o agregar un sistema de archivos o un dispositivo de almacenamiento en el ámbito del cluster. Todas las demás tareas de configuración del cluster de zona se realizan con el comando clzonecluster configure. Consulte la Guía de instalación del software de Oracle Solaris Cluster para obtener instrucciones sobre cómo utilizar la utilidad clsetup.
Siga las instrucciones en pantalla para finalizar una tarea. Para obtener más detalles, siga las instrucciones de Creación y configuración de un cluster de zona de Guía de instalación del software de Oracle Solaris Cluster.
Véase también
Consulte las páginas del comando man clsetup o clzonecluster para obtener más información.
Para realizar este procedimiento no es necesario iniciar sesión como rol root. Siga todos los pasos de este procedimiento desde un nodo del clúster global.
phys-schost# refleja un indicador de clúster global. Siga este procedimiento en un clúster global.
Este procedimiento proporciona las formas largas de los comandos de Oracle Solaris Cluster. La mayoría de los comandos también tienen una forma corta. A excepción de las formas de los nombres de comandos, los comandos son idénticos.
phys-schost# clnode show-rev -v -node
Este comando muestra el número de versión y las cadenas de caracteres de versión de todos los paquetes de Oracle Solaris Cluster.
Ejemplo 1-1 Visualización de la información de versión de Oracle Solaris Cluster
En el siguiente ejemplo, se muestra la información de la versión del cluster y de la versión de los paquetes que se enviaron con Oracle Solaris Cluster 4.1.
phys-schost# clnode show-rev 4.1 phys-schost#% clnode show-rev -v Oracle Solaris Cluster 4.1 for Solaris 11 sparc ha-cluster/data-service/apache :4.1-0.18 ha-cluster/data-service/dhcp :4.1-0.18 ha-cluster/data-service/dns :4.1-0.18 ha-cluster/data-service/glassfish-message-queue :4.1-0.18 ha-cluster/data-service/ha-ldom :4.1-0.18 ha-cluster/data-service/ha-zones :4.1-0.18 ha-cluster/data-service/iplanet-web-server :4.1-0.18 ha-cluster/data-service/nfs :4.1-0.18 ha-cluster/data-service/oracle-database :4.1-0.18 ha-cluster/data-service/oracle-external-proxy :4.1-0.18 ha-cluster/data-service/oracle-http-server :4.1-0.18 ha-cluster/data-service/oracle-pmn-server :4.1-0.18 ha-cluster/data-service/oracle-traffic-director :4.1-0.18 ha-cluster/data-service/peoplesoft :4.1-0.18 ha-cluster/data-service/sapnetweaver :4.1-0.18 ha-cluster/data-service/tomcat :4.1-0.18 ha-cluster/data-service/weblogic :4.1-0.18 ha-cluster/developer/agent-builder :4.1-0.18 ha-cluster/developer/api :4.1-0.18 ha-cluster/geo/geo-framework :4.1-0.18 ha-cluster/geo/manual :4.1-0.18 ha-cluster/geo/replication/availability-suite :4.1-0.18 ha-cluster/geo/replication/data-guard :4.1-0.18 ha-cluster/geo/replication/sbp :4.1-0.18 ha-cluster/geo/replication/srdf :4.1-0.18 ha-cluster/geo/replication/zfs-sa :4.1-0.18 ha-cluster/group-package/ha-cluster-data-services-full :4.1-0.18 ha-cluster/group-package/ha-cluster-framework-full :4.1-0.18 ha-cluster/group-package/ha-cluster-framework-l10n :4.1-0.18 ha-cluster/group-package/ha-cluster-framework-minimal :4.1-0.18 ha-cluster/group-package/ha-cluster-framework-scm :4.1-0.18 ha-cluster/group-package/ha-cluster-framework-slm :4.1-0.18 ha-cluster/group-package/ha-cluster-full :4.1-0.18 ha-cluster/group-package/ha-cluster-geo-full :4.1-0.18 ha-cluster/group-package/ha-cluster-geo-incorporation :4.1-0.18 ha-cluster/group-package/ha-cluster-incorporation :4.1-0.18 ha-cluster/group-package/ha-cluster-minimal :4.1-0.18 ha-cluster/group-package/ha-cluster-quorum-server-full :4.1-0.18 ha-cluster/group-package/ha-cluster-quorum-server-l10n :4.1-0.18 ha-cluster/ha-service/derby :4.1-0.18 ha-cluster/ha-service/gds :4.1-0.18 ha-cluster/ha-service/logical-hostname :4.1-0.18 ha-cluster/ha-service/smf-proxy :4.1-0.18 ha-cluster/ha-service/telemetry :4.1-0.18 ha-cluster/library/cacao :4.1-0.18 ha-cluster/library/ucmm :4.1-0.18 ha-cluster/locale :4.1-0.18 ha-cluster/release/name :4.1-0.18 ha-cluster/service/management :4.1-0.18 ha-cluster/service/management/slm :4.1-0.18 ha-cluster/service/quorum-server :4.1-0.18 ha-cluster/service/quorum-server/locale :4.1-0.18 ha-cluster/service/quorum-server/manual/locale :4.1-0.18 ha-cluster/storage/svm-mediator :4.1-0.18 ha-cluster/system/cfgchk :4.1-0.18 ha-cluster/system/core :4.1-0.18 ha-cluster/system/dsconfig-wizard :4.1-0.18 ha-cluster/system/install :4.1-0.18 ha-cluster/system/manual :4.1-0.18 ha-cluster/system/manual/data-services :4.1-0.18 ha-cluster/system/manual/locale :4.1-0.18
phys-schost# refleja un indicador de clúster global. Siga este procedimiento en un clúster global.
Este procedimiento proporciona las formas largas de los comandos de Oracle Solaris Cluster. La mayoría de los comandos también tienen una forma corta. A excepción de las formas de los nombres de comandos, los comandos son idénticos.
Antes de empezar
Los usuarios que no tienen el rol root deben contar con la autorización RBAC solaris.cluster.read para utilizar este subcomando.
phys-schost# cluster show -t resource,resourcetype,resourcegroup
Siga todos los pasos de este procedimiento desde un nodo del clúster global. Si desea obtener información sobre un determinado recurso, los grupos de recursos y los tipos de recursos, utilice el subcomando show con uno de los comandos siguientes:
resource
resource group
resourcetype
Ejemplo 1-2 Visualización de tipos de recursos, grupos de recursos y recursos configurados
En el ejemplo siguiente se muestran los tipos de recursos (RT Name), los grupos de recursos (RG Name) y los recursos (RS Name ) configurados para el clúster schost.
phys-schost# cluster show -t resource,resourcetype,resourcegroup === Registered Resource Types === Resource Type: SUNW.sctelemetry RT_description: sctelemetry service for Oracle Solaris Cluster RT_version: 1 API_version: 7 RT_basedir: /usr/cluster/lib/rgm/rt/sctelemetry Single_instance: True Proxy: False Init_nodes: All potential masters Installed_nodes: <All> Failover: False Pkglist: <NULL> RT_system: True Global_zone: True === Resource Groups and Resources === Resource Group: tel-rg RG_description: <NULL> RG_mode: Failover RG_state: Managed Failback: False Nodelist: phys-schost-2 phys-schost-1 --- Resources for Group tel-rg --- Resource: tel-res Type: SUNW.sctelemetry Type_version: 4.0 Group: tel-rg R_description: Resource_project_name: default Enabled{phys-schost-2}: True Enabled{phys-schost-1}: True Monitored{phys-schost-2}: True Monitored{phys-schost-1}: True
El comando cluster status muestra el estado de un clúster de zona.
phys-schost# refleja un indicador de clúster global. Siga este procedimiento en un clúster global.
Este procedimiento proporciona las formas largas de los comandos de Oracle Solaris Cluster. La mayoría de los comandos también tienen una forma corta. A excepción de las formas de los nombres de comandos, los comandos son idénticos.
Antes de empezar
Los usuarios que no tienen el rol root necesitan la autorización RBAC solaris.cluster.read para utilizar el subcomando status.
phys-schost# cluster status
Siga todos los pasos de este procedimiento desde un nodo del clúster global.
Ejemplo 1-3 Comprobación del estado de los componentes del clúster
En el siguiente ejemplo se muestra parte de la información de estado de los componentes del clúster devueltos por el comando cluster status.
phys-schost# cluster status === Cluster Nodes === --- Node Status --- Node Name Status --------- ------ phys-schost-1 Online phys-schost-2 Online === Cluster Transport Paths === Endpoint1 Endpoint2 Status --------- --------- ------ phys-schost-1:nge1 phys-schost-4:nge1 Path online phys-schost-1:e1000g1 phys-schost-4:e1000g1 Path online === Cluster Quorum === --- Quorum Votes Summary --- Needed Present Possible ------ ------- -------- 3 3 4 --- Quorum Votes by Node --- Node Name Present Possible Status --------- ------- -------- ------ phys-schost-1 1 1 Online phys-schost-2 1 1 Online --- Quorum Votes by Device --- Device Name Present Possible Status ----------- ------- -------- ------ /dev/did/rdsk/d2s2 1 1 Online /dev/did/rdsk/d8s2 0 1 Offline === Cluster Device Groups === --- Device Group Status --- Device Group Name Primary Secondary Status ----------------- ------- --------- ------ schost-2 phys-schost-2 - Degraded --- Spare, Inactive, and In Transition Nodes --- Device Group Name Spare Nodes Inactive Nodes In Transistion Nodes ----------------- ----------- -------------- -------------------- schost-2 - - - === Cluster Resource Groups === Group Name Node Name Suspended Status ---------- --------- --------- ------ test-rg phys-schost-1 No Offline phys-schost-2 No Online test-rg phys-schost-1 No Offline phys-schost-2 No Error--stop failed test-rg phys-schost-1 No Online phys-schost-2 No Online === Cluster Resources === Resource Name Node Name Status Message ------------- --------- ------ ------- test_1 phys-schost-1 Offline Offline phys-schost-2 Online Online test_1 phys-schost-1 Offline Offline phys-schost-2 Stop failed Faulted test_1 phys-schost-1 Online Online phys-schost-2 Online Online Device Instance Node Status --------------- ---- ------ /dev/did/rdsk/d2 phys-schost-1 Ok /dev/did/rdsk/d3 phys-schost-1 Ok phys-schost-2 Ok /dev/did/rdsk/d4 phys-schost-1 Ok phys-schost-2 Ok /dev/did/rdsk/d6 phys-schost-2 Ok === Zone Clusters === --- Zone Cluster Status --- Name Node Name Zone HostName Status Zone Status ---- --------- ------------- ------ ----------- sczone schost-1 sczone-1 Online Running schost-2 sczone-2 Online Running
phys-schost# refleja un indicador de clúster global. Siga este procedimiento en un clúster global.
Este procedimiento proporciona las formas largas de los comandos de Oracle Solaris Cluster. La mayoría de los comandos también tienen una forma corta. A excepción de las formas de los nombres de comandos, los comandos son idénticos.
Para comprobar el estado de los grupos de múltiples rutas de red IP, utilice el comando con el comando clnode status.
Antes de empezar
Los usuarios que no tienen el rol root necesitan la autorización RBAC solaris.cluster.read para utilizar este subcomando.
phys-schost# clnode status -m
Siga todos los pasos de este procedimiento desde un nodo del clúster global.
Ejemplo 1-4 Comprobación del estado de la red pública
En el siguiente ejemplo se muestra parte de la información de estado de los componentes del clúster devueltos por el comando clnode status.
% clnode status -m --- Node IPMP Group Status --- Node Name Group Name Status Adapter Status --------- ---------- ------ ------- ------ phys-schost-1 test-rg Online nge2 Online phys-schost-2 test-rg Online nge3 Online
phys-schost# refleja un indicador de clúster global. Siga este procedimiento en un clúster global.
Este procedimiento proporciona las formas largas de los comandos de Oracle Solaris Cluster. La mayoría de los comandos también tienen una forma corta. A excepción de las formas de los nombres de comandos, los comandos son idénticos.
Antes de empezar
Los usuarios que no tienen el rol root necesitan la autorización RBAC solaris.cluster.read para utilizar el subcomando status.
% cluster show
Siga todos los pasos de este procedimiento desde un nodo del clúster global.
Al ejecutar el comando cluster show desde un nodo del cluster global, se muestra información detallada sobre la configuración del cluster e información sobre los clusters de zona si es que están configurados.
También puede usar el comando clzonecluster show para visualizar la información de configuración sólo de los clústeres de zona. Entre las propiedades de un clúster de zona están el nombre, el tipo de IP, el arranque automático y la ruta de zona. El subcomando show se ejecuta dentro de un clúster de zona y se aplica sólo a ese clúster de zona. Al ejecutar el comando clzonecluster show desde un nodo del clúster de zona, sólo se recupera el estado de los objetos visibles en ese clúster de zona en concreto.
Para visualizar más información acerca del comando cluster, utilice las opciones para obtener más detalles. Si desea obtener más detalles, consulte la página del comando man cluster(1CL). Consulte la página del comando man clzonecluster(1CL) si desea obtener más información sobre clzonecluster .
Ejemplo 1-5 Visualización de la configuración del clúster global
En el ejemplo siguiente figura información de configuración sobre el clúster global. Si tiene configurado un clúster de zona, también se enumera la pertinente información.
phys-schost# cluster show
=== Cluster === Cluster Name: cluster-1 clusterid: 0x4DA2C888 installmode: disabled heartbeat_timeout: 10000 heartbeat_quantum: 1000 private_netaddr: 172.11.0.0 private_netmask: 255.255.248.0 max_nodes: 64 max_privatenets: 10 num_zoneclusters: 12 udp_session_timeout: 480 concentrate_load: False global_fencing: prefer3 Node List: phys-schost-1 Node Zones: phys_schost-2:za === Host Access Control === Cluster name: clustser-1 Allowed hosts: phys-schost-1, phys-schost-2:za Authentication Protocol: sys === Cluster Nodes === Node Name: phys-schost-1 Node ID: 1 Enabled: yes privatehostname: clusternode1-priv reboot_on_path_failure: disabled globalzoneshares: 3 defaultpsetmin: 1 quorum_vote: 1 quorum_defaultvote: 1 quorum_resv_key: 0x43CB1E1800000001 Transport Adapter List: net1, net3 --- Transport Adapters for phys-schost-1 --- Transport Adapter: net1 Adapter State: Enabled Adapter Transport Type: dlpi Adapter Property(device_name): net Adapter Property(device_instance): 1 Adapter Property(lazy_free): 1 Adapter Property(dlpi_heartbeat_timeout): 10000 Adapter Property(dlpi_heartbeat_quantum): 1000 Adapter Property(nw_bandwidth): 80 Adapter Property(bandwidth): 10 Adapter Property(ip_address): 172.16.1.1 Adapter Property(netmask): 255.255.255.128 Adapter Port Names: 0 Adapter Port State(0): Enabled Transport Adapter: net3 Adapter State: Enabled Adapter Transport Type: dlpi Adapter Property(device_name): net Adapter Property(device_instance): 3 Adapter Property(lazy_free): 0 Adapter Property(dlpi_heartbeat_timeout): 10000 Adapter Property(dlpi_heartbeat_quantum): 1000 Adapter Property(nw_bandwidth): 80 Adapter Property(bandwidth): 10 Adapter Property(ip_address): 172.16.0.129 Adapter Property(netmask): 255.255.255.128 Adapter Port Names: 0 Adapter Port State(0): Enabled --- SNMP MIB Configuration on phys-schost-1 --- SNMP MIB Name: Event State: Disabled Protocol: SNMPv2 --- SNMP Host Configuration on phys-schost-1 --- --- SNMP User Configuration on phys-schost-1 --- SNMP User Name: foo Authentication Protocol: MD5 Default User: No Node Name: phys-schost-2:za Node ID: 2 Type: cluster Enabled: yes privatehostname: clusternode2-priv reboot_on_path_failure: disabled globalzoneshares: 1 defaultpsetmin: 2 quorum_vote: 1 quorum_defaultvote: 1 quorum_resv_key: 0x43CB1E1800000002 Transport Adapter List: e1000g1, nge1 --- Transport Adapters for phys-schost-2 --- Transport Adapter: e1000g1 Adapter State: Enabled Adapter Transport Type: dlpi Adapter Property(device_name): e1000g Adapter Property(device_instance): 2 Adapter Property(lazy_free): 0 Adapter Property(dlpi_heartbeat_timeout): 10000 Adapter Property(dlpi_heartbeat_quantum): 1000 Adapter Property(nw_bandwidth): 80 Adapter Property(bandwidth): 10 Adapter Property(ip_address): 172.16.0.130 Adapter Property(netmask): 255.255.255.128 Adapter Port Names: 0 Adapter Port State(0): Enabled Transport Adapter: nge1 Adapter State: Enabled Adapter Transport Type: dlpi Adapter Property(device_name): nge Adapter Property(device_instance): 3 Adapter Property(lazy_free): 1 Adapter Property(dlpi_heartbeat_timeout): 10000 Adapter Property(dlpi_heartbeat_quantum): 1000 Adapter Property(nw_bandwidth): 80 Adapter Property(bandwidth): 10 Adapter Property(ip_address): 172.16.1.2 Adapter Property(netmask): 255.255.255.128 Adapter Port Names: 0 Adapter Port State(0): Enabled --- SNMP MIB Configuration on phys-schost-2 --- SNMP MIB Name: Event State: Disabled Protocol: SNMPv2 --- SNMP Host Configuration on phys-schost-2 --- --- SNMP User Configuration on phys-schost-2 --- === Transport Cables === Transport Cable: phys-schost-1:e1000g1,switch2@1 Cable Endpoint1: phys-schost-1:e1000g1 Cable Endpoint2: switch2@1 Cable State: Enabled Transport Cable: phys-schost-1:nge1,switch1@1 Cable Endpoint1: phys-schost-1:nge1 Cable Endpoint2: switch1@1 Cable State: Enabled Transport Cable: phys-schost-2:nge1,switch1@2 Cable Endpoint1: phys-schost-2:nge1 Cable Endpoint2: switch1@2 Cable State: Enabled Transport Cable: phys-schost-2:e1000g1,switch2@2 Cable Endpoint1: phys-schost-2:e1000g1 Cable Endpoint2: switch2@2 Cable State: Enabled === Transport Switches === Transport Switch: switch2 Switch State: Enabled Switch Type: switch Switch Port Names: 1 2 Switch Port State(1): Enabled Switch Port State(2): Enabled Transport Switch: switch1 Switch State: Enabled Switch Type: switch Switch Port Names: 1 2 Switch Port State(1): Enabled Switch Port State(2): Enabled === Quorum Devices === Quorum Device Name: d3 Enabled: yes Votes: 1 Global Name: /dev/did/rdsk/d3s2 Type: shared_disk Access Mode: scsi3 Hosts (enabled): phys-schost-1, phys-schost-2 Quorum Device Name: qs1 Enabled: yes Votes: 1 Global Name: qs1 Type: quorum_server Hosts (enabled): phys-schost-1, phys-schost-2 Quorum Server Host: 10.11.114.83 Port: 9000 === Device Groups === Device Group Name: testdg3 Type: SVM failback: no Node List: phys-schost-1, phys-schost-2 preferenced: yes numsecondaries: 1 diskset name: testdg3 === Registered Resource Types === Resource Type: SUNW.LogicalHostname:2 RT_description: Logical Hostname Resource Type RT_version: 4 API_version: 2 RT_basedir: /usr/cluster/lib/rgm/rt/hafoip Single_instance: False Proxy: False Init_nodes: All potential masters Installed_nodes: <All> Failover: True Pkglist: <NULL> RT_system: True Global_zone: True Resource Type: SUNW.SharedAddress:2 RT_description: HA Shared Address Resource Type RT_version: 2 API_version: 2 RT_basedir: /usr/cluster/lib/rgm/rt/hascip Single_instance: False Proxy: False Init_nodes: <Unknown> Installed_nodes: <All> Failover: True Pkglist: <NULL> RT_system: True Global_zone: True Resource Type: SUNW.HAStoragePlus:4 RT_description: HA Storage Plus RT_version: 4 API_version: 2 RT_basedir: /usr/cluster/lib/rgm/rt/hastorageplus Single_instance: False Proxy: False Init_nodes: All potential masters Installed_nodes: <All> Failover: False Pkglist: <NULL> RT_system: True Global_zone: True Resource Type: SUNW.haderby RT_description: haderby server for Oracle Solaris Cluster RT_version: 1 API_version: 7 RT_basedir: /usr/cluster/lib/rgm/rt/haderby Single_instance: False Proxy: False Init_nodes: All potential masters Installed_nodes: <All> Failover: False Pkglist: <NULL> RT_system: True Global_zone: True Resource Type: SUNW.sctelemetry RT_description: sctelemetry service for Oracle Solaris Cluster RT_version: 1 API_version: 7 RT_basedir: /usr/cluster/lib/rgm/rt/sctelemetry Single_instance: True Proxy: False Init_nodes: All potential masters Installed_nodes: <All> Failover: False Pkglist: <NULL> RT_system: True Global_zone: True === Resource Groups and Resources === Resource Group: HA_RG RG_description: <Null> RG_mode: Failover RG_state: Managed Failback: False Nodelist: phys-schost-1 phys-schost-2 --- Resources for Group HA_RG --- Resource: HA_R Type: SUNW.HAStoragePlus:4 Type_version: 4 Group: HA_RG R_description: Resource_project_name: SCSLM_HA_RG Enabled{phys-schost-1}: True Enabled{phys-schost-2}: True Monitored{phys-schost-1}: True Monitored{phys-schost-2}: True Resource Group: cl-db-rg RG_description: <Null> RG_mode: Failover RG_state: Managed Failback: False Nodelist: phys-schost-1 phys-schost-2 --- Resources for Group cl-db-rg --- Resource: cl-db-rs Type: SUNW.haderby Type_version: 1 Group: cl-db-rg R_description: Resource_project_name: default Enabled{phys-schost-1}: True Enabled{phys-schost-2}: True Monitored{phys-schost-1}: True Monitored{phys-schost-2}: True Resource Group: cl-tlmtry-rg RG_description: <Null> RG_mode: Scalable RG_state: Managed Failback: False Nodelist: phys-schost-1 phys-schost-2 --- Resources for Group cl-tlmtry-rg --- Resource: cl-tlmtry-rs Type: SUNW.sctelemetry Type_version: 1 Group: cl-tlmtry-rg R_description: Resource_project_name: default Enabled{phys-schost-1}: True Enabled{phys-schost-2}: True Monitored{phys-schost-1}: True Monitored{phys-schost-2}: True === DID Device Instances === DID Device Name: /dev/did/rdsk/d1 Full Device Path: phys-schost-1:/dev/rdsk/c0t2d0 Replication: none default_fencing: global DID Device Name: /dev/did/rdsk/d2 Full Device Path: phys-schost-1:/dev/rdsk/c1t0d0 Replication: none default_fencing: global DID Device Name: /dev/did/rdsk/d3 Full Device Path: phys-schost-2:/dev/rdsk/c2t1d0 Full Device Path: phys-schost-1:/dev/rdsk/c2t1d0 Replication: none default_fencing: global DID Device Name: /dev/did/rdsk/d4 Full Device Path: phys-schost-2:/dev/rdsk/c2t2d0 Full Device Path: phys-schost-1:/dev/rdsk/c2t2d0 Replication: none default_fencing: global DID Device Name: /dev/did/rdsk/d5 Full Device Path: phys-schost-2:/dev/rdsk/c0t2d0 Replication: none default_fencing: global DID Device Name: /dev/did/rdsk/d6 Full Device Path: phys-schost-2:/dev/rdsk/c1t0d0 Replication: none default_fencing: global === NAS Devices === Nas Device: nas_filer1 Type: sun_uss nodeIPs{phys-schost-2}: 10.134.112.112 nodeIPs{phys-schost-1 10.134.112.113 User ID: root
Ejemplo 1-6 Visualización de la información del clúster de zona
El siguiente ejemplo lista las propiedades de la configuración del clúster de zona con RAC.
% clzonecluster show === Zone Clusters === Zone Cluster Name: sczone zonename: sczone zonepath: /zones/sczone autoboot: TRUE ip-type: shared enable_priv_net: TRUE --- Solaris Resources for sczone --- Resource Name: net address: 172.16.0.1 physical: auto Resource Name: net address: 172.16.0.2 physical: auto Resource Name: fs dir: /local/ufs-1 special: /dev/md/ds1/dsk/d0 raw: /dev/md/ds1/rdsk/d0 type: ufs options: [logging] --- Zone Cluster Nodes for sczone --- Node Name: sczone-1 physical-host: sczone-1 hostname: lzzone-1 Node Name: sczone-2 physical-host: sczone-2 hostname: lzzone-2
También puede ver los dispositivos NAS que se han configurado para clústeres globales o de zona utilizando el subcomando clnasdevice show. Para obtener más información, consulte la página del comando man clnasdevice(1CL).
El comando cluster utiliza el subcomando check para validar la configuración básica que se requiere para que un cluster global funcione correctamente. Si ninguna comprobación falla, cluster check vuelve al indicador del shell. Si falla alguna de las comprobaciones, cluster check emite informes que aparecen en el directorio de salida que se haya especificado o en el predeterminado. Si ejecuta cluster check con más de un nodo, cluster check emite un informe para cada nodo y un informe para las comprobaciones que comprenden varios nodos. También puede utilizar el comando cluster list-checks para que se muestre una lista con todas las comprobaciones disponibles para el clúster.
Además de las comprobaciones básicas, que se ejecutan sin la interacción del usuario, el comando también puede ejecutar comprobaciones interactivas y funcionales. Las comprobaciones básicas se ejecutan cuando la opción -k keyword no se especifica.
Las comprobaciones interactivas requieren información del usuario que las comprobaciones no pueden determinar. La comprobación solicita al usuario la información necesaria, por ejemplo, el número de versión del firmware. Utilice la palabra clave -k interactive para especificar una o más comprobaciones interactivas.
Las comprobaciones funcionales ejercen una función o un comportamiento determinados del clúster. La comprobación solicita la entrada de datos del usuario, como, por ejemplo, qué nodo debe utilizar para la conmutación por error o la confirmación para iniciar o continuar con la comprobación. Utilice la palabra clave -k functional check-id para especificar una comprobación funcional. Realice sólo una comprobación funcional cada vez.
Nota - Dado que algunas comprobaciones funcionales implican la interrupción del servicio del clúster, no inicie ninguna comprobación funcional hasta que haya leído la descripción detallada de la comprobación y haya determinado si es necesario retirar antes el clúster de la producción. Para mostrar esta información, utilice el comando siguiente:
% cluster list-checks -v -C checkID
Puede ejecutar el comando cluster check en modo detallado con el indicador -v para que se muestre la información de progreso.
Nota - Ejecute cluster check después de realizar un procedimiento de administración que pueda provocar modificaciones en los dispositivos, en los componentes de administración de volúmenes o en la configuración de Oracle Solaris Cluster.
Al ejecutar el comando clzonecluster(1CL) en el nodo del cluster global, se lleva a cabo un conjunto de comprobaciones con el fin de validar la configuración necesaria para que un cluster de zona funcione correctamente. Si todas las comprobaciones son correctas, clzonecluster verify devuelve al indicador de shell y el clúster de zona se puede instalar con seguridad. Si falla alguna de las comprobaciones, clzonecluster verify informa sobre los nodos del clúster global en los que la verificación no obtuvo un resultado correcto. Si ejecuta clzonecluster verify respecto a más de un nodo, se emite un informe para cada nodo y un informe para las comprobaciones que comprenden varios nodos. No se permite utilizar el subcomando verify dentro de los clústeres de zona.
phys-schost# su
Siga todos los pasos de este procedimiento desde un nodo del clúster global.
La búsqueda localiza actualizaciones del software de Oracle Solaris Cluster que contienen comprobaciones.
phys-schost# cluster check -v -o outputdir
Modo detallado.
Redirige la salida al subdirectorio outputdir.
El comando ejecuta todas las comprobaciones básicas disponibles. No se ve afectada ninguna función del clúster.
phys-schost# cluster check -v -k interactive -o outputdir
Especifica comprobaciones de validación interactivas en ejecución
El comando ejecuta todas las comprobaciones de validación interactivas disponibles y le solicita información necesaria sobre el clúster. No se ve afectada ninguna función del clúster.
phys-schost# cluster list-checks -k functional
Por ejemplo, una comprobación funcional puede desencadenar que el nodo genere avisos graves o una conmutación por error a otro nodo.
phys-schost# cluster list-checks -v -C check-ID
Especifica un una comprobación específica.
phys-schost# cluster check -v -k functional -C check-ID -o outputdir
Especifica comprobaciones de validación funcionales en ejecución.
Responda a las peticiones de la comprobación para confirmar la ejecución de la comprobación y para cualquier información o acciones que deba realizar.
Nota - Para fines de registro, especifique un único nombre de subdirectorio outputdir para cada comprobación que se ejecuta. Si vuelve a utilizar un nombre outputdir, la salida para la nueva comprobación sobrescribe el contenido existente del subdirectorio outputdir reutilizado.
phys-schost# clzonecluster verify zoneclustername
Ejemplo 1-7 Comprobación de la configuración del clúster global con resultado correcto en todas las comprobaciones básicas
El ejemplo siguiente muestra cómo la ejecución de cluster check en modo detallado respecto a los nodos phys-schost-1 y phys-schost-2 supera correctamente todas las comprobaciones.
phys-schost# cluster check -v -h phys-schost-1, phys-schost-2 cluster check: Requesting explorer data and node report from phys-schost-1. cluster check: Requesting explorer data and node report from phys-schost-2. cluster check: phys-schost-1: Explorer finished. cluster check: phys-schost-1: Starting single-node checks. cluster check: phys-schost-1: Single-node checks finished. cluster check: phys-schost-2: Explorer finished. cluster check: phys-schost-2: Starting single-node checks. cluster check: phys-schost-2: Single-node checks finished. cluster check: Starting multi-node checks. cluster check: Multi-node checks finished #
Ejemplo 1-8 Listado de comprobaciones de validación interactivas
En el siguiente ejemplo se enumeran todas las comprobaciones interactivas que están disponibles para ejecutarse en el clúster. En la salida del ejemplo aparece un muestreo de posibles comprobaciones; las comprobaciones disponibles reales varían en cada configuración.
# cluster list-checks -k interactive Some checks might take a few moments to run (use -v to see progress)... I6994574 : (Moderate) Fix for GLDv3 interfaces on cluster transport vulnerability applied?
Ejemplo 1-9 Ejecución de una comprobación de validación funcional
El siguiente ejemplo muestra primero el listado detallado de comprobaciones funcionales. La descripción detallada aparece en una lista para la comprobación F6968101, que indica que la comprobación podría alterar los servicios del clúster. El clúster se elimina de la producción. La comprobación funcional se ejecuta con salida detallada registrada en el subdirectorio funct.test.F6968101.12Jan2011. En la salida de ejemplo aparece un muestreo de posibles comprobaciones; las comprobaciones disponibles reales varían en cada configuración.
# cluster list-checks -k functional F6968101 : (Critical) Perform resource group switchover F6984120 : (Critical) Induce cluster transport network failure - single adapter. F6984121 : (Critical) Perform cluster shutdown F6984140 : (Critical) Induce node panic … # cluster list-checks -v -C F6968101 F6968101: (Critical) Perform resource group switchover Keywords: SolarisCluster3.x, functional Applicability: Applicable if multi-node cluster running live. Check Logic: Select a resource group and destination node. Perform '/usr/cluster/bin/clresourcegroup switch' on specified resource group either to specified node or to all nodes in succession. Version: 1.2 Revision Date: 12/10/10 Take the cluster out of production # cluster check -k functional -C F6968101 -o funct.test.F6968101.12Jan2011 F6968101 initializing... initializing xml output... loading auxiliary data... starting check run... pschost1, pschost2, pschost3, pschost4: F6968101.... starting: Perform resource group switchover ============================================================ >>> Functional Check <<< 'Functional' checks exercise cluster behavior. It is recommended that you do not run this check on a cluster in production mode.' It is recommended that you have access to the system console for each cluster node and observe any output on the consoles while the check is executed. If the node running this check is brought down during execution the check must be rerun from this same node after it is rebooted into the cluster in order for the check to be completed. Select 'continue' for more details on this check. 1) continue 2) exit choice: 1 ============================================================ >>> Check Description <<< … Follow onscreen directions
Ejemplo 1-10 Comprobación de la configuración del clúster global con una comprobación con resultado no satisfactorio
El ejemplo siguiente muestra el nodo phys-schost-2, perteneciente al clúster denominado suncluster, excepto el punto de montaje /global/phys-schost-1. Los informes se crean en el directorio de salida /var/cluster/logs/cluster_check/<timestamp> .
phys-schost# cluster check -v -h phys-schost-1, phys-schost-2 -o /var/cluster/logs/cluster_check/Dec5/ cluster check: Requesting explorer data and node report from phys-schost-1. cluster check: Requesting explorer data and node report from phys-schost-2. cluster check: phys-schost-1: Explorer finished. cluster check: phys-schost-1: Starting single-node checks. cluster check: phys-schost-1: Single-node checks finished. cluster check: phys-schost-2: Explorer finished. cluster check: phys-schost-2: Starting single-node checks. cluster check: phys-schost-2: Single-node checks finished. cluster check: Starting multi-node checks. cluster check: Multi-node checks finished. cluster check: One or more checks failed. cluster check: The greatest severity of all check failures was 3 (HIGH). cluster check: Reports are in /var/cluster/logs/cluster_check/<Dec5>. # # cat /var/cluster/logs/cluster_check/Dec5/cluster_check-results.suncluster.txt ... =================================================== = ANALYSIS DETAILS = =================================================== ------------------------------------ CHECK ID : 3065 SEVERITY : HIGH FAILURE : Global filesystem /etc/vfstab entries are not consistent across all Oracle Solaris Cluster 4.x nodes. ANALYSIS : The global filesystem /etc/vfstab entries are not consistent across all nodes in this cluster. Analysis indicates: FileSystem '/global/phys-schost-1' is on 'phys-schost-1' but missing from 'phys-schost-2'. RECOMMEND: Ensure each node has the correct /etc/vfstab entry for the filesystem(s) in question. ... #
El comando cluster incluye comprobaciones que verifican el archivo /etc/vfstab para detectar posibles errores de configuración con el sistema de archivos del clúster y sus puntos de montaje globales. Para obtener más información, consulte la página del comando man cluster(1CL).
Nota - Ejecute cluster check después de efectuar cambios en la configuración del clúster que hayan afectado a los dispositivos o a los componentes de administración de volúmenes.
Siga todos los pasos de este procedimiento desde un nodo del clúster global.
% su
phys-schost# cluster check
Ejemplo 1-11 Comprobación de puntos de montaje globales
El ejemplo siguiente muestra el nodo phys-schost-2 del clúster denominado suncluster, excepto el punto de montaje /global/schost-1 . Los informes se envían al directorio de salida, /var/cluster/logs/cluster_check/<timestamp>/ .
phys-schost# cluster check -v1 -h phys-schost-1,phys-schost-2 -o /var/cluster//logs/cluster_check/Dec5/ cluster check: Requesting explorer data and node report from phys-schost-1. cluster check: Requesting explorer data and node report from phys-schost-2. cluster check: phys-schost-1: Explorer finished. cluster check: phys-schost-1: Starting single-node checks. cluster check: phys-schost-1: Single-node checks finished. cluster check: phys-schost-2: Explorer finished. cluster check: phys-schost-2: Starting single-node checks. cluster check: phys-schost-2: Single-node checks finished. cluster check: Starting multi-node checks. cluster check: Multi-node checks finished. cluster check: One or more checks failed. cluster check: The greatest severity of all check failures was 3 (HIGH). cluster check: Reports are in /var/cluster/logs/cluster_check/Dec5. # # cat /var/cluster/logs/cluster_check/Dec5/cluster_check-results.suncluster.txt ... =================================================== = ANALYSIS DETAILS = =================================================== ------------------------------------ CHECK ID : 3065 SEVERITY : HIGH FAILURE : Global filesystem /etc/vfstab entries are not consistent across all Oracle Solaris Cluster 4.x nodes. ANALYSIS : The global filesystem /etc/vfstab entries are not consistent across all nodes in this cluster. Analysis indicates: FileSystem '/global/phys-schost-1' is on 'phys-schost-1' but missing from 'phys-schost-2'. RECOMMEND: Ensure each node has the correct /etc/vfstab entry for the filesystem(s) in question. ... # # cat /var/cluster/logs/cluster_check/Dec5/cluster_check-results.phys-schost-1.txt ... =================================================== = ANALYSIS DETAILS = =================================================== ------------------------------------ CHECK ID : 1398 SEVERITY : HIGH FAILURE : An unsupported server is being used as an Oracle Solaris Cluster 4.x node. ANALYSIS : This server may not been qualified to be used as an Oracle Solaris Cluster 4.x node. Only servers that have been qualified with Oracle Solaris Cluster 4.0 are supported as Oracle Solaris Cluster 4.x nodes. RECOMMEND: Because the list of supported servers is always being updated, check with your Oracle representative to get the latest information on what servers are currently supported and only use a server that is supported with Oracle Solaris Cluster 4.x. ... #
El archivo de texto ASCII /var/cluster/logs/commandlog contiene registros de comandos de Oracle Solaris Cluster seleccionados que se ejecutan en un clúster. Los comandos comienzan a registrarse automáticamente al configurarse el clúster y la operación se finaliza al cerrarse el clúster. Los comandos se registran en todos los nodos activos y que se han arrancado en modo de clúster.
Entre los comandos que no quedan registrados en este archivo están los encargados de mostrar la configuración y el estado actual del clúster.
Entre los comandos que quedan registrados en este archivo están los encargados de configurar y modificar el estado actual del clúster:
claccess
cldevice
cldevicegroup
clinterconnect
clnasdevice
clnode
clquorum
clreslogicalhostname
clresource
clresourcegroup
clresourcetype
clressharedaddress
clsetup
clsnmphost
clsnmpmib
clnsmpuser
cltelemetryattribute
cluster
clzonecluster
scdidadm
Los registros del archivo commandlog pueden contener los elementos siguientes:
Fecha y marca de tiempo
Nombre del host desde el cual se ejecutó el comando
ID de proceso del comando
Nombre de inicio de sesión del usuario que ejecutó el comando
Comando ejecutado por el usuario, con todas las opciones y los operandos
Nota - Las opciones del comando se recogen en el archivo commandlog para poderlas identificar, copiar, pegar y ejecutar en el shell.
Estado de salida del comando ejecutado
Nota - Si un comando interrumpe su ejecución de forma anómala con resultados desconocidos, el software Oracle Solaris Cluster no muestra un estado de salida en el archivo commandlog.
De forma predeterminada, el archivo commandlog se archiva periódicamente una vez por semana. Para modificar las directrices de archivado del archivo commandlog, utilice el comando crontab en todos los nodos del clúster. Para obtener más información, consulte la página del comando man crontab(1).
El software Oracle Solaris Cluster conserva en todo momento hasta un máximo de ocho archivos commandlog archivados anteriormente en cada nodo del clúster. El archivo commandlog de la semana actual se denomina commandlog. El archivo semanal completo más reciente se denomina commandlog.0. El archivo semanal completo más antiguo se denomina commandlog.7.
phys-schost# more /var/cluster/logs/commandlog
Ejemplo 1-12 Visualización del contenido de los registros de comandos de Oracle Solaris Cluster
El ejemplo siguiente muestra el contenido del archivo commandlog que se visualiza mediante el comando more.
more -lines10 /var/cluster/logs/commandlog 11/11/2006 09:42:51 phys-schost-1 5222 root START - clsetup 11/11/2006 09:43:36 phys-schost-1 5758 root START - clrg add "app-sa-1" 11/11/2006 09:43:36 phys-schost-1 5758 root END 0 11/11/2006 09:43:36 phys-schost-1 5760 root START - clrg set -y "RG_description=Department Shared Address RG" "app-sa-1" 11/11/2006 09:43:37 phys-schost-1 5760 root END 0 11/11/2006 09:44:15 phys-schost-1 5810 root START - clrg online "app-sa-1" 11/11/2006 09:44:15 phys-schost-1 5810 root END 0 11/11/2006 09:44:19 phys-schost-1 5222 root END -20988320 12/02/2006 14:37:21 phys-schost-1 5542 jbloggs START - clrg -c -g "app-sa-1" -y "RG_description=Joe Bloggs Shared Address RG" 12/02/2006 14:37:22 phys-schost-1 5542 jbloggs END 0