Omitir Vínculos de navegación | |
Salir de la Vista de impresión | |
![]() |
Guía de administración del sistema de Oracle Solaris Cluster Oracle Solaris Cluster 3.3 3/13 (Español) |
1. Introducción a la administración de Oracle Solaris Cluster
Descripción general de la administración de Oracle Solaris Cluster
Trabajo con un cluster de zona
Restricciones de las funciones del sistema operativo Oracle Solaris
Herramientas de administración
Preparación para administrar el cluster
Documentación de las configuraciones de hardware de Oracle Solaris Cluster
Uso de la consola de administración
Copia de seguridad del cluster
Procedimiento para empezar a administrar el cluster
Inicio de sesión remoto en el cluster
Conexión segura a las consolas del cluster
Obtención de acceso a las utilidades de configuración del cluster
Visualización de la información de parches de Oracle Solaris Cluster
Visualización de la información de versión de Oracle Solaris Cluster
Visualización de tipos de recursos configurados, grupos de recursos y recursos
Comprobación del estado de los componentes del cluster
Comprobación del estado de la red pública
Visualización de la configuración del cluster
Validación de una configuración básica de cluster
Comprobación de los puntos de montaje globales
Visualización del contenido de los registros de comandos de Oracle Solaris Cluster
2. Oracle Solaris Cluster y RBAC
3. Cierre y arranque de un cluster
4. Métodos de replicación de datos
7. Administración de interconexiones de clusters y redes públicas
8. Adición y eliminación de un nodo
10. Configuración del control del uso de la CPU
11. Aplicación de parches de software y firmware de Oracle Solaris Cluster
12. Copias de seguridad y restauraciones de clusters
13. Administración de Oracle Solaris Cluster con las interfaces gráficas de usuario
La Tabla 1-2 proporciona un punto de partida para administrar el cluster.
Nota - Los comandos de Oracle Solaris Cluster que sólo ejecuta desde el nodo con voto del cluster global no son válidos para usarlos con los clusters de zona. Consulte la página del comando man de Oracle Solaris Cluster para obtener información sobre la validez del uso de un comando en zonas.
Tabla 1-2 Herramientas de administración de Oracle Solaris Cluster
|
Cluster Control Panel (CCP) proporciona una pantalla de inicio para las herramientas cconsole, crlogin, cssh y ctelnet. Todas las herramientas inician una conexión de ventanas múltiples para un conjunto de nodos especificados. La conexión de ventanas múltiples consta de una ventana de host para cada uno de los nodos especificados y una ventana común. Los datos introducidos en la ventana común se envían a cada una de las ventanas de host, lo que permite ejecutar comandos simultáneamente en todos los nodos del cluster.
También puede iniciar sesiones cconsole, crlogin, cssh o ctelnet desde la línea de comandos.
De forma predeterminada, la utilidad cconsole usa una conexión telnet con las consolas de los nodos. Para establecer en su lugar conexiones de shell seguro con las consolas, active la casilla de verificación Use SSH (Usar SSH) en el menú Options (Opciones) de la ventana cconsole. O bien, especifique la opción -s al ejecutar el comando ccp o cconsole.
Consulte las páginas del comando man ccp(1M) and cconsole(1M) para obtener más información.
phys-schost# refleja un indicador de cluster global. Siga este procedimiento en un cluster global.
Este procedimiento proporciona las formas largas de los comandos de Oracle Solaris Cluster. La mayoría de los comandos también tienen una forma corta. A excepción de las formas de los nombres de comandos, los comandos son idénticos.
Antes de empezar
Verifique que se cumplen los siguientes requisitos previos antes de iniciar CCP:
Instale el paquete SUNWccon en la consola de administración.
Asegúrese de que la variable PATH de la consola de administración incluya los directorios de herramientas de Oracle Solaris Cluster, /opt/SUNWcluster/bin y /usr/cluster/bin. Puede especificar una ubicación alternativa para el directorio de herramientas. Para ello, defina la variable de entorno $CLUSTER_HOME.
Configure los archivos clusters, serialports y nsswitch.conf si utiliza un concentrador de terminales. Los archivos pueden ser archivos /etc o bases de datos NIS o NIS+. Consulte las páginas del comando man clusters(4) y serialports(4) para obtener más información.
phys-schost# ccp clustername
Se muestra la pantalla de inicio de CCP.
Lleve a cabo este procedimiento para establecer conexiones de shell seguro con las consolas de los nodos del cluster.
Antes de empezar
Configure los archivos clusters, serialports y nsswitch.conf si utiliza un concentrador de terminales. Los archivos pueden ser archivos /etc o bases de datos NIS o NIS+.
Nota - En el archivo serialports, asigne el número de puerto que desea utilizar para la conexión segura con cada dispositivo de acceso a la consola. El número de puerto predeterminado para la conexión de shell seguro es 22.
Consulte las páginas del comando man clusters(4) y serialports(4) para obtener más información.
# cconsole -s [-l username] [-p ssh-port]
Permite activar la conexión de shell seguro.
Permite especificar el nombre de usuario para las conexiones remotas. Si no se especifica la opción -l, se utiliza el nombre de usuario que inició la utilidad cconsole.
Permite especificar el número de puerto de shell seguro que desea utilizar. Si no se especifica la opción -p, se utiliza el número de puerto predeterminado 22 para las conexiones seguras.
La utilidad clsetup permite crear un cluster de zona de manera interactiva y configurar opciones de quórum, grupo de recursos, transporte de cluster, nombre de host privado, grupo de dispositivos y nuevo nodo para el cluster global. La utilidad clzonecluster realiza tareas de configuración similares para los clusters de zona. Para obtener más información, consulte las páginas del comando man clsetup(1CL) y clzonecluster(1CL).
phys-schost# refleja un indicador de cluster global. Siga este procedimiento en un cluster global.
Este procedimiento proporciona las formas largas de los comandos de Oracle Solaris Cluster. La mayoría de los comandos también tienen una forma corta. A excepción de las formas de los nombres de comandos, los comandos son idénticos.
phys-schost# clsetup
phys-schost# clsetup
Aparece el menú principal.
phys-schost# clzonecluster configure sczone
Con la opción siguiente puede ver las acciones disponibles en la utilidad:
clzc:sczone> ?
También puede utilizar la utilidad clsetup para crear un cluster de zona o agregar un sistema de archivos o un dispositivo de almacenamiento en el ámbito del cluster. Todas las demás tareas de configuración del cluster de zona se realizan con el comando clzonecluster configure. Consulte la Guía de instalación del software de Oracle Solaris Cluster para obtener instrucciones sobre cómo utilizar la utilidad clsetup.
Véase también
Consulte la ayuda en línea de clsetup o clzonecluster para obtener más información.
Para realizar este procedimiento no es necesario iniciar sesión como superusuario.
phys-schost# refleja un indicador de cluster global. Siga este procedimiento en un cluster global.
Este procedimiento proporciona las formas largas de los comandos de Oracle Solaris Cluster. La mayoría de los comandos también tienen una forma corta. A excepción de las formas de los nombres de comandos, los comandos son idénticos.
phys-schost# showrev -p
Las actualizaciones de Oracle Solaris Cluster se identifican mediante el número de parche del producto principal y la versión de actualización.
Ejemplo 1-1 Visualización de información de parches de Oracle Solaris Cluster
En el siguiente ejemplo, se muestra información sobre el parche 110648-05.
phys-schost# showrev -p | grep 110648 Patch: 110648-05 Obsoletes: Requires: Incompatibles: Packages:
Para realizar este procedimiento no es necesario iniciar sesión como superusuario. Siga todos los pasos de este procedimiento desde un nodo del cluster global.
phys-schost# refleja un indicador de cluster global. Siga este procedimiento en un cluster global.
Este procedimiento proporciona las formas largas de los comandos de Oracle Solaris Cluster. La mayoría de los comandos también tienen una forma corta. A excepción de las formas de los nombres de comandos, los comandos son idénticos.
phys-schost# clnode show-rev -v -node
Este comando muestra el número de versión y las cadenas de caracteres de versión de todos los paquetes de Oracle Solaris Cluster.
Ejemplo 1-2 Visualización de la información de versión de Oracle Solaris Cluster
En el siguiente ejemplo, se muestra información sobre la versión y el paquete del cluster.
phys-schost# clnode show-rev 3.3 phys-schost# clnode show-rev -v Oracle Solaris Cluster 3.3 for Solaris 10 sparc SUNWcccon: 3.3.0,REV=2010.06.14.03.44 SUNWccon: 3.3.0,REV=2010.06.14.03.44 SUNWcsc: 3.3.0,REV=2010.06.14.03.44 SUNWcscspmu 3.3.0,REV=2010.06.14.03.44 SUNWcscssv: 3.3.0,REV=2010.06.14.03.44 SUNWeccon: 3.3.0,REV=2010.06.14.03.44 SUNWesc: 3.3.0,REV=2010.06.14.03.44 SUNWescspmu: 3.3.0,REV=2010.06.14.03.44 SUNWescssv: 3.3.0,REV=2010.06.14.03.44 SUNWfccon: 3.3.0,REV=2010.06.14.03.44 SUNWfsc: 3.3.0,REV=2010.06.14.03.44 SUNFfscspmu: 3.3.0,REV=2010.06.14.03.44 SUNWfscssv: 3.3.0,REV=2010.06.14.03.44 SUNWjccon: 3.3.0,REV=2010.06.14.03.44 SUNWjcommonS: 3.3.0,REV=2010.06.14.03.44 SUNWjsc: 3.3.0,REV=2010.06.14.03.44 SUNWjscman: 3.3.0,REV=2010.06.14.03.44 SUNWjscspmu: 3.3.0,REV=2010.06.14.03.44 SUNWjscssv: 3.3.0,REV=2010.06.14.03.44 SUNWkccon: 3.3.0,REV=2010.06.14.03.44 SUNWksc: 3.3.0,REV=2010.06.14.03.44 SUNWkscspmu 3.3.0,REV=2010.06.14.03.44 SUNWkscssv: 3.3.0,REV=2010.06.14.03.44 SUNWscu: 3.3.0,REV=2010.06.14.03.44 SUNWsccomu: 3.3.0,REV=2010.06.14.03.44 SUNWsczr: 3.3.0,REV=2010.06.14.03.44 SUNWsccomzu: 3.3.0,REV=2010.06.14.03.44 SUNWsczu: 3.3.0,REV=2010.06.14.03.44 SUNWscsckr: 3.3.0,REV=2010.06.14.03.44 SUNWscscku: 3.3.0,REV=2010.06.14.03.44 SUNWscr: 3.3.0,REV=2010.06.14.03.44 SUNWscrdt: 3.3.0,REV=2010.06.14.03.44 SUNWscrif: 3.3.0,REV=2010.06.14.03.44 SUNWscrtlh: 3.3.0,REV=2010.06.14.03.44 SUNWscnmr: 3.3.0,REV=2010.06.14.03.44 SUNWscnmu: 3.3.0,REV=2010.06.14.03.44 SUNWscdev: 3.3.0,REV=2010.06.14.03.44 SUNWscgds: 3.3.0,REV=2010.06.14.03.44 SUNWscsmf: 3.3.0,REV=2010.06.14.03.44 SUNWscman: 3.3.0,REV=2010.05.21.18.40 SUNWscsal: 3.3.0,REV=2010.06.14.03.44 SUNWscsam: 3.3.0,REV=2010.06.14.03.44 SUNWscvm: 3.3.0,REV=2010.06.14.03.44 SUNWmdmr: 3.3.0,REV=2010.06.14.03.44 SUNWmdmu: 3.3.0,REV=2010.06.14.03.44 SUNWscmasa: 3.3.0,REV=2010.06.14.03.44 SUNWscmasar: 3.3.0,REV=2010.06.14.03.44 SUNWscmasasen: 3.3.0,REV=2010.06.14.03.44 SUNWscmasazu: 3.3.0,REV=2010.06.14.03.44 SUNWscmasau: 3.3.0,REV=2010.06.14.03.44 SUNWscmautil: 3.3.0,REV=2010.06.14.03.44 SUNWscmautilr: 3.3.0,REV=2010.06.14.03.44 SUNWjfreechart: 3.3.0,REV=2010.06.14.03.44 SUNWjfreechartS: 3.3.0,REV=2010.06.14.03.44 ORCLscPeopleSoft:3.3.0,REV=2010.06.14.03.44 ORCLscobiee: 3.3.0,REV=2010.06.14.03.44 ORCLscoep: 3.3.0,REV=2010.06.14.03.44 ORCLscohs: 3.3.0,REV=2010.06.14.03.44 ORCLscopmn: 3.3.0,REV=2010.06.14.03.44 ORCLscsapnetw: 3.3.0,REV=2010.06.14.03.44 SUNWcvm: 3.3.0,REV=2010.06.14.03.44 SUNWcvmr: 3.3.0,REV=2010.06.14.03.44 SUNWiimsc: 3.3.0,REV=2010.06.14.03.44 SUNWscspmr: 3.3.0,REV=2010.06.14.03.44 SUNWscspmu: 3.3.0,REV=2010.06.14.03.44 SUNWscderby: 3.3.0,REV=2010.06.14.03.44 SUNWsctelemetry: 3.3.0,REV=2010.06.14.03.44 SUNWscgrepavs: 3.2.3,REV=2009.10.23.12.12 SUNWscgrepavsu: 3.3.0,REV=2010.06.14.03.44 SUNWscgrepodg: 3.3.0,REV=2010.06.14.03.44 SUNWscgrepodgu: 3.3.0,REV=2010.06.14.03.44 SUNWscgrepsbpu: 3.3.0,REV=2010.06.14.03.44 SUNWscgrepsrdf: 3.2.3,REV=2009.10.23.12.12 SUNWscgrepsrdfu: 3.3.0,REV=2010.06.14.03.44 SUNWscgreptc: 3.2.3,REV=2009.10.23.12.12 SUNWscgreptcu: 3.3.0,REV=2010.06.14.03.44 SUNWscgspm: 3.3.0,REV=2010.06.14.03.44 SUNWscghb: 3.2.3,REV=2009.10.23.12.12 SUNWscghbr: 3.3.0,REV=2010.06.14.03.44 SUNWscgman: 3.3.0,REV=2010.06.14.03.44 ORCLscgrepzfssa: 3.3.0,REV=2010.06.14.03.44 SUNWscgctl: 3.2.3,REV=2009.10.23.12.12 SUNWscgctlr: 3.3.0,REV=2010.06.14.03.44 SUNWscims: 6.0,REV=2003.10.29 SUNWscics: 6.0,REV=2003.11.14 SUNWscids: 3.3.0,REV=2010.06.14.03.44 SUNWscapc: 3.2.0,REV=2006.12.06.18.32 SUNWscdns: 3.2.0,REV=2006.12.06.18.32 SUNWschadb: 3.2.0,REV=2006.12.06.18.32 SUNWschtt: 3.2.0,REV=2006.12.06.18.32 SUNWscs1as: 3.2.0,REV=2006.12.06.18.32 SUNWsckrb5: 3.2.0,REV=2006.12.06.18.32 SUNWscnfs: 3.2.0,REV=2006.12.06.18.32 SUNWscor: 3.2.0,REV=2006.12.06.18.32 SUNWscpax: 3.3.0,REV=2010.06.14.03.44 SUNWscs1mq: 3.2.0,REV=2006.12.06.18.32 SUNWscsap: 3.2.0,REV=2006.12.06.18.32 SUNWsclc: 3.2.0,REV=2006.12.06.18.32 SUNWscmd: 3.3.0,REV=2010.06.14.03.44 SUNWscsapdb: 3.2.0,REV=2006.12.06.18.32 SUNWscsapenq: 3.2.0,REV=2006.12.06.18.32 SUNWscsaprepl: 3.2.0,REV=2006.12.06.18.32 SUNWscsapscs: 3.2.0,REV=2006.12.06.18.32 SUNWscsapwebas: 3.2.0,REV=2006.12.06.18.32 SUNWscsbl: 3.2.0,REV=2006.12.06.18.32 SUNWscsyb: 3.2.0,REV=2006.12.06.18.32 SUNWscucm: 3.3.0,REV=2010.06.14.03.44 SUNWscwls: 3.3.0,REV=2010.06.14.03.44 SUNWudlm: 3.3.0,REV=2010.06.14.03.44 SUNWudlmr: 3.3.0,REV=2010.06.14.03.44 SUNWscwls: 3.2.0,REV=2006.12.06.18.32 SUNWsc9ias: 3.2.0,REV=2006.12.06.18.32 SUNWscPostgreSQL:3.2.0,REV=2006.12.06.18.32 SUNWscTimesTen: 3.3.0,REV=2010.06.14.03.44 SUNWsczone: 3.2.0,REV=2006.12.06.18.32 SUNWscdhc: 3.2.0,REV=2006.12.06.18.32 SUNWscebs: 3.2.0,REV=2006.12.06.18.32 SUNWscmqi: 3.2.0,REV=2006.12.06.18.32 SUNWscmqs: 3.2.0,REV=2006.12.06.18.32 SUNWscmys: 3.2.0,REV=2006.12.06.18.32 SUNWscsge: 3.2.0,REV=2006.12.06.18.32 SUNWscsaa: 3.2.0,REV=2006.12.06.18.32 SUNWscsag: 3.2.0,REV=2006.12.06.18.32 SUNWscsmb: 3.2.0,REV=2006.12.06.18.32 SUNWscsps: 3.2.0,REV=2006.12.06.18.32 SUNWsctomcat: 3.2.0,REV=2006.12.06.18.32
Este procedimiento también se puede llevar a cabo mediante la GUI de Oracle Solaris Cluster Manager. Consulte el Capítulo 13, Administración de Oracle Solaris Cluster con las interfaces gráficas de usuario o la ayuda en pantalla de Oracle Solaris Cluster Manager para obtener más información.
phys-schost# refleja un indicador de cluster global. Siga este procedimiento en un cluster global.
Este procedimiento proporciona las formas largas de los comandos de Oracle Solaris Cluster. La mayoría de los comandos también tienen una forma corta. A excepción de las formas de los nombres de comandos, los comandos son idénticos.
Antes de empezar
Para utilizar subcomando, todos los usuarios necesitan la autorización RBAC solaris.cluster.read menos el superusuario.
phys-schost# cluster show -t resource,resourcetype,resourcegroup
Si desea obtener información sobre un determinado recurso, los grupos de recursos y los tipos de recursos, utilice el subcomando show con uno de los comandos siguientes:
resource
resource group
resourcetype
Ejemplo 1-3 Visualización de tipos de recursos, grupos de recursos y recursos configurados
En el ejemplo siguiente se muestran los tipos de recursos (RT Name), los grupos de recursos (RG Name) y los recursos (RS Name ) configurados para el cluster schost.
phys-schost# cluster show -t resource,resourcetype,resourcegroup === Registered Resource Types === Resource Type: SUNW.qfs RT_description: SAM-QFS Agent on Oracle Solaris Cluster RT_version: 3.1 API_version: 3 RT_basedir: /opt/SUNWsamfs/sc/bin Single_instance: False Proxy: False Init_nodes: All potential masters Installed_nodes: <All> Failover: True Pkglist: <NULL> RT_system: False Global_zone: True === Resource Groups and Resources === Resource Group: qfs-rg RG_description: <NULL> RG_mode: Failover RG_state: Managed Failback: False Nodelist: phys-schost-2 phys-schost-1 --- Resources for Group qfs-rg --- Resource: qfs-res Type: SUNW.qfs Type_version: 3.1 Group: qfs-rg R_description: Resource_project_name: default Enabled{phys-schost-2}: True Enabled{phys-schost-1}: True Monitored{phys-schost-2}: True Monitored{phys-schost-1}: True
Este procedimiento también se puede llevar a cabo mediante la GUI de Oracle Solaris Cluster Manager. Consulte la ayuda en línea de Oracle Solaris Cluster Manager para obtener más información.
Nota - El comando cluster status también muestra el estado de un cluster de zona.
phys-schost# refleja un indicador de cluster global. Siga este procedimiento en un cluster global.
Este procedimiento proporciona las formas largas de los comandos de Oracle Solaris Cluster. La mayoría de los comandos también tienen una forma corta. A excepción de las formas de los nombres de comandos, los comandos son idénticos.
Antes de empezar
Todos los usuarios necesitan la autorización RBAC solaris.cluster.read para utilizar el subcomando status menos el superusuario.
phys-schost# cluster status
Ejemplo 1-4 Comprobación del estado de los componentes del cluster
En el siguiente ejemplo, se muestra la información sobre el estado de los componentes del cluster que devuelve cluster(1CL) status.
phys-schost# cluster status === Cluster Nodes === --- Node Status --- Node Name Status --------- ------ phys-schost-1 Online phys-schost-2 Online === Cluster Transport Paths === Endpoint1 Endpoint2 Status --------- --------- ------ phys-schost-1:qfe1 phys-schost-4:qfe1 Path online phys-schost-1:hme1 phys-schost-4:hme1 Path online === Cluster Quorum === --- Quorum Votes Summary --- Needed Present Possible ------ ------- -------- 3 3 4 --- Quorum Votes by Node --- Node Name Present Possible Status --------- ------- -------- ------ phys-schost-1 1 1 Online phys-schost-2 1 1 Online --- Quorum Votes by Device --- Device Name Present Possible Status ----------- ------- -------- ------ /dev/did/rdsk/d2s2 1 1 Online /dev/did/rdsk/d8s2 0 1 Offline === Cluster Device Groups === --- Device Group Status --- Device Group Name Primary Secondary Status ----------------- ------- --------- ------ schost-2 phys-schost-2 - Degraded --- Spare, Inactive, and In Transition Nodes --- Device Group Name Spare Nodes Inactive Nodes In Transistion Nodes ----------------- ----------- -------------- -------------------- schost-2 - - - === Cluster Resource Groups === Group Name Node Name Suspended Status ---------- --------- --------- ------ test-rg phys-schost-1 No Offline phys-schost-2 No Online test-rg phys-schost-1 No Offline phys-schost-2 No Error--stop failed test-rg phys-schost-1 No Online phys-schost-2 No Online === Cluster Resources === Resource Name Node Name Status Message ------------- --------- ------ ------- test_1 phys-schost-1 Offline Offline phys-schost-2 Online Online test_1 phys-schost-1 Offline Offline phys-schost-2 Stop failed Faulted test_1 phys-schost-1 Online Online phys-schost-2 Online Online Device Instance Node Status --------------- ---- ------ /dev/did/rdsk/d2 phys-schost-1 Ok /dev/did/rdsk/d3 phys-schost-1 Ok phys-schost-2 Ok /dev/did/rdsk/d4 phys-schost-1 Ok phys-schost-2 Ok /dev/did/rdsk/d6 phys-schost-2 Ok === Zone Clusters === --- Zone Cluster Status --- Name Node Name Zone HostName Status Zone Status ---- --------- ------------- ------ ----------- sczone schost-1 sczone-1 Online Running schost-2 sczone-2 Online Running
Este procedimiento también se puede llevar a cabo mediante la GUI de Oracle Solaris Cluster Manager. Consulte la ayuda en línea de Oracle Solaris Cluster Manager para obtener más información.
phys-schost# refleja un indicador de cluster global. Siga este procedimiento en un cluster global.
Este procedimiento proporciona las formas largas de los comandos de Oracle Solaris Cluster. La mayoría de los comandos también tienen una forma corta. A excepción de las formas de los nombres de comandos, los comandos son idénticos.
Para comprobar el estado de los grupos de rutas múltiples de red IP, utilice el comando clnode(1CL) con el subcomando status.
Antes de empezar
Para utilizar subcomando, todos los usuarios necesitan la autorización RBAC solaris.cluster.read menos el superusuario.
phys-schost# clnode status -m
Ejemplo 1-5 Comprobación del estado de la red pública
En el siguiente ejemplo, se muestra la información sobre el estado de los componentes del cluster que devuelve el comando clnode status.
% clnode status -m --- Node IPMP Group Status --- Node Name Group Name Status Adapter Status --------- ---------- ------ ------- ------ phys-schost-1 test-rg Online qfe1 Online phys-schost-2 test-rg Online qfe1 Online
Este procedimiento también se puede llevar a cabo mediante la GUI de Oracle Solaris Cluster Manager. Consulte la ayuda en línea de Oracle Solaris Cluster Manager para obtener más información.
phys-schost# refleja un indicador de cluster global. Siga este procedimiento en un cluster global.
Este procedimiento proporciona las formas largas de los comandos de Oracle Solaris Cluster. La mayoría de los comandos también tienen una forma corta. A excepción de las formas de los nombres de comandos, los comandos son idénticos.
Antes de empezar
Todos los usuarios necesitan la autorización RBAC solaris.cluster.read para utilizar el subcomando status menos el superusuario.
% cluster show
Al ejecutar el comando cluster show desde un nodo de votación de cluster global, se muestra información detallada sobre la configuración del cluster e información sobre los clusters de zona si es que están configurados.
También puede usar el comando clzonecluster show para visualizar la información de configuración sólo de los clusters de zona. Entre las propiedades de un cluster de zona están el nombre, el tipo de IP, el arranque automático y la ruta de zona. El subcomando show se ejecuta dentro de un cluster de zona y se aplica sólo a ese cluster de zona. Al ejecutar el comando clzonecluster show desde un nodo del cluster de zona, sólo se recupera el estado de los objetos visibles en ese cluster de zona en concreto.
Para visualizar más información acerca del comando cluster, utilice las opciones para obtener más detalles. Si desea obtener más detalles, consulte la página del comando man cluster(1CL). Consulte la página del comando man clzonecluster(1CL) si desea obtener más información sobre clzonecluster .
Ejemplo 1-6 Visualización de la configuración del cluster global
En el ejemplo siguiente figura información de configuración sobre el cluster global. Si tiene configurado un cluster de zona, también se enumera la pertinente información.
phys-schost# cluster show
=== Cluster === Cluster Name: cluster-1 clusterid: 0x50C000C4 installmode: disabled heartbeat_timeout: 10000 heartbeat_quantum: 1000 private_netaddr: 172.16.0.0 private_netmask: 255.255.248.0 max_nodes: 62 num_zoneclusters: 1 max_privatenets: 10 global_fencing: pathcount Node List: phys-schost-1 Node Zones: phys_schost-2:za === Host Access Control === Cluster name: clustser-1 Allowed hosts: phys-schost-1, phys-schost-2:za Authentication Protocol: sys === Cluster Nodes === Node Name: phys-schost-1 Node ID: 1 Type: cluster Enabled: yes privatehostname: clusternode1-priv reboot_on_path_failure: disabled globalzoneshares: 3 defaultpsetmin: 1 quorum_vote: 1 quorum_defaultvote: 1 quorum_resv_key: 0x43CB1E1800000001 Transport Adapter List: qfe3, hme0 --- Transport Adapters for phys-schost-1 --- Transport Adapter: qfe3 Adapter State: Enabled Adapter Transport Type: dlpi Adapter Property(device_name): qfe Adapter Property(device_instance): 3 Adapter Property(lazy_free): 1 Adapter Property(dlpi_heartbeat_timeout): 10000 Adapter Property(dlpi_heartbeat_quantum): 1000 Adapter Property(nw_bandwidth): 80 Adapter Property(bandwidth): 10 Adapter Property(ip_address): 172.16.1.1 Adapter Property(netmask): 255.255.255.128 Adapter Port Names: 0 Adapter Port State(0): Enabled Transport Adapter: hme0 Adapter State: Enabled Adapter Transport Type: dlpi Adapter Property(device_name): hme Adapter Property(device_instance): 0 Adapter Property(lazy_free): 0 Adapter Property(dlpi_heartbeat_timeout): 10000 Adapter Property(dlpi_heartbeat_quantum): 1000 Adapter Property(nw_bandwidth): 80 Adapter Property(bandwidth): 10 Adapter Property(ip_address): 172.16.0.129 Adapter Property(netmask): 255.255.255.128 Adapter Port Names: 0 Adapter Port State(0): Enabled --- SNMP MIB Configuration on phys-schost-1 --- SNMP MIB Name: Event State: Disabled Protocol: SNMPv2 --- SNMP Host Configuration on phys-schost-1 --- --- SNMP User Configuration on phys-schost-1 --- SNMP User Name: foo Authentication Protocol: MD5 Default User: No Node Name: phys-schost-2:za Node ID: 2 Type: cluster Enabled: yes privatehostname: clusternode2-priv reboot_on_path_failure: disabled globalzoneshares: 1 defaultpsetmin: 2 quorum_vote: 1 quorum_defaultvote: 1 quorum_resv_key: 0x43CB1E1800000002 Transport Adapter List: hme0, qfe3 --- Transport Adapters for phys-schost-2 --- Transport Adapter: hme0 Adapter State: Enabled Adapter Transport Type: dlpi Adapter Property(device_name): hme Adapter Property(device_instance): 0 Adapter Property(lazy_free): 0 Adapter Property(dlpi_heartbeat_timeout): 10000 Adapter Property(dlpi_heartbeat_quantum): 1000 Adapter Property(nw_bandwidth): 80 Adapter Property(bandwidth): 10 Adapter Property(ip_address): 172.16.0.130 Adapter Property(netmask): 255.255.255.128 Adapter Port Names: 0 Adapter Port State(0): Enabled Transport Adapter: qfe3 Adapter State: Enabled Adapter Transport Type: dlpi Adapter Property(device_name): qfe Adapter Property(device_instance): 3 Adapter Property(lazy_free): 1 Adapter Property(dlpi_heartbeat_timeout): 10000 Adapter Property(dlpi_heartbeat_quantum): 1000 Adapter Property(nw_bandwidth): 80 Adapter Property(bandwidth): 10 Adapter Property(ip_address): 172.16.1.2 Adapter Property(netmask): 255.255.255.128 Adapter Port Names: 0 Adapter Port State(0): Enabled --- SNMP MIB Configuration on phys-schost-2 --- SNMP MIB Name: Event State: Disabled Protocol: SNMPv2 --- SNMP Host Configuration on phys-schost-2 --- --- SNMP User Configuration on phys-schost-2 --- === Transport Cables === Transport Cable: phys-schost-1:qfe3,switch2@1 Cable Endpoint1: phys-schost-1:qfe3 Cable Endpoint2: switch2@1 Cable State: Enabled Transport Cable: phys-schost-1:hme0,switch1@1 Cable Endpoint1: phys-schost-1:hme0 Cable Endpoint2: switch1@1 Cable State: Enabled Transport Cable: phys-schost-2:hme0,switch1@2 Cable Endpoint1: phys-schost-2:hme0 Cable Endpoint2: switch1@2 Cable State: Enabled Transport Cable: phys-schost-2:qfe3,switch2@2 Cable Endpoint1: phys-schost-2:qfe3 Cable Endpoint2: switch2@2 Cable State: Enabled === Transport Switches === Transport Switch: switch2 Switch State: Enabled Switch Type: switch Switch Port Names: 1 2 Switch Port State(1): Enabled Switch Port State(2): Enabled Transport Switch: switch1 Switch State: Enabled Switch Type: switch Switch Port Names: 1 2 Switch Port State(1): Enabled Switch Port State(2): Enabled === Quorum Devices === Quorum Device Name: d3 Enabled: yes Votes: 1 Global Name: /dev/did/rdsk/d3s2 Type: scsi Access Mode: scsi2 Hosts (enabled): phys-schost-1, phys-schost-2 Quorum Device Name: qs1 Enabled: yes Votes: 1 Global Name: qs1 Type: quorum_server Hosts (enabled): phys-schost-1, phys-schost-2 Quorum Server Host: 10.11.114.83 Port: 9000 === Device Groups === Device Group Name: testdg3 Type: SVM failback: no Node List: phys-schost-1, phys-schost-2 preferenced: yes numsecondaries: 1 diskset name: testdg3 === Registered Resource Types === Resource Type: SUNW.LogicalHostname:2 RT_description: Logical Hostname Resource Type RT_version: 2 API_version: 2 RT_basedir: /usr/cluster/lib/rgm/rt/hafoip Single_instance: False Proxy: False Init_nodes: All potential masters Installed_nodes: <All> Failover: True Pkglist: SUNWscu RT_system: True Resource Type: SUNW.SharedAddress:2 RT_description: HA Shared Address Resource Type RT_version: 2 API_version: 2 RT_basedir: /usr/cluster/lib/rgm/rt/hascip Single_instance: False Proxy: False Init_nodes: <Unknown> Installed_nodes: <All> Failover: True Pkglist: SUNWscu RT_system: True Resource Type: SUNW.HAStoragePlus:4 RT_description: HA Storage Plus RT_version: 4 API_version: 2 RT_basedir: /usr/cluster/lib/rgm/rt/hastorageplus Single_instance: False Proxy: False Init_nodes: All potential masters Installed_nodes: <All> Failover: False Pkglist: SUNWscu RT_system: False Resource Type: SUNW.haderby RT_description: haderby server for Oracle Solaris Cluster RT_version: 1 API_version: 7 RT_basedir: /usr/cluster/lib/rgm/rt/haderby Single_instance: False Proxy: False Init_nodes: All potential masters Installed_nodes: <All> Failover: False Pkglist: SUNWscderby RT_system: False Resource Type: SUNW.sctelemetry RT_description: sctelemetry service for Oracle Solaris Cluster RT_version: 1 API_version: 7 RT_basedir: /usr/cluster/lib/rgm/rt/sctelemetry Single_instance: True Proxy: False Init_nodes: All potential masters Installed_nodes: <All> Failover: False Pkglist: SUNWsctelemetry RT_system: False === Resource Groups and Resources === Resource Group: HA_RG RG_description: <Null> RG_mode: Failover RG_state: Managed Failback: False Nodelist: phys-schost-1 phys-schost-2 --- Resources for Group HA_RG --- Resource: HA_R Type: SUNW.HAStoragePlus:4 Type_version: 4 Group: HA_RG R_description: Resource_project_name: SCSLM_HA_RG Enabled{phys-schost-1}: True Enabled{phys-schost-2}: True Monitored{phys-schost-1}: True Monitored{phys-schost-2}: True Resource Group: cl-db-rg RG_description: <Null> RG_mode: Failover RG_state: Managed Failback: False Nodelist: phys-schost-1 phys-schost-2 --- Resources for Group cl-db-rg --- Resource: cl-db-rs Type: SUNW.haderby Type_version: 1 Group: cl-db-rg R_description: Resource_project_name: default Enabled{phys-schost-1}: True Enabled{phys-schost-2}: True Monitored{phys-schost-1}: True Monitored{phys-schost-2}: True Resource Group: cl-tlmtry-rg RG_description: <Null> RG_mode: Scalable RG_state: Managed Failback: False Nodelist: phys-schost-1 phys-schost-2 --- Resources for Group cl-tlmtry-rg --- Resource: cl-tlmtry-rs Type: SUNW.sctelemetry Type_version: 1 Group: cl-tlmtry-rg R_description: Resource_project_name: default Enabled{phys-schost-1}: True Enabled{phys-schost-2}: True Monitored{phys-schost-1}: True Monitored{phys-schost-2}: True === DID Device Instances === DID Device Name: /dev/did/rdsk/d1 Full Device Path: phys-schost-1:/dev/rdsk/c0t2d0 Replication: none default_fencing: global DID Device Name: /dev/did/rdsk/d2 Full Device Path: phys-schost-1:/dev/rdsk/c1t0d0 Replication: none default_fencing: global DID Device Name: /dev/did/rdsk/d3 Full Device Path: phys-schost-2:/dev/rdsk/c2t1d0 Full Device Path: phys-schost-1:/dev/rdsk/c2t1d0 Replication: none default_fencing: global DID Device Name: /dev/did/rdsk/d4 Full Device Path: phys-schost-2:/dev/rdsk/c2t2d0 Full Device Path: phys-schost-1:/dev/rdsk/c2t2d0 Replication: none default_fencing: global DID Device Name: /dev/did/rdsk/d5 Full Device Path: phys-schost-2:/dev/rdsk/c0t2d0 Replication: none default_fencing: global DID Device Name: /dev/did/rdsk/d6 Full Device Path: phys-schost-2:/dev/rdsk/c1t0d0 Replication: none default_fencing: global === NAS Devices === Nas Device: nas_filer1 Type: sun User ID: root Nas Device: nas2 Type: sun User ID: llai
Ejemplo 1-7 Visualización de la información del cluster de zona
En el siguiente ejemplo, se enumeran las propiedades de la configuración del cluster de zona.
% clzonecluster show === Zone Clusters === Zone Cluster Name: sczone zonename: sczone zonepath: /zones/sczone autoboot: TRUE ip-type: shared enable_priv_net: TRUE --- Solaris Resources for sczone --- Resource Name: net address: 172.16.0.1 physical: auto Resource Name: net address: 172.16.0.2 physical: auto Resource Name: fs dir: /gz/db_qfs/CrsHome special: CrsHome raw: type: samfs options: [] Resource Name: fs dir: /gz/db_qfs/CrsData special: CrsData raw: type: samfs options: [] Resource Name: fs dir: /gz/db_qfs/OraHome special: OraHome raw: type: samfs options: [] Resource Name: fs dir: /gz/db_qfs/OraData special: OraData raw: type: samfs options: [] --- Zone Cluster Nodes for sczone --- Node Name: sczone-1 physical-host: sczone-1 hostname: lzzone-1 Node Name: sczone-2 physical-host: sczone-2 hostname: lzzone-2
También puede ver los dispositivos NAS que se han configurado para clusters globales o de zona mediante el subcomando clnasdevice show o Oracle Solaris Cluster Manager. Para obtener más información, consulte la página del comando man clnasdevice(1CL).
El comando cluster(1CL) utiliza el subcomando check para validar la configuración básica que necesita un cluster global para funcionar correctamente. Si ninguna comprobación arroja un resultado incorrecto, cluster check regresa al indicador de shell. Si falla alguna de las comprobaciones, cluster check emite informes que aparecen en el directorio de salida que se haya especificado o en el predeterminado. Si ejecuta cluster check con más de un nodo, cluster check genera un informe para cada nodo y un informe para las comprobaciones que comprenden varios nodos. También puede utilizar el comando cluster list-checks para que se muestre una lista con todas las comprobaciones disponibles para el cluster.
A partir de Oracle Solaris Cluster 3.3 5/11, el comando cluster check se ha mejorado con nuevos tipos de comprobaciones. Además de las comprobaciones básicas, que se ejecutan sin la interacción del usuario, el comando también puede ejecutar comprobaciones interactivas y funcionales. Las comprobaciones básicas se ejecutan cuando no se especifica la opción - k keyword.
Las comprobaciones interactivas requieren información del usuario que las comprobaciones no pueden determinar. La comprobación solicita al usuario la información necesaria, por ejemplo, el número de versión del firmware. Utilice la palabra clave -k interactive para especificar una o más comprobaciones interactivas.
Las comprobaciones funcionales ejercen una función o un comportamiento determinados del cluster. La comprobación solicita la entrada de datos del usuario, como, por ejemplo, qué nodo debe utilizar para la conmutación por error o la confirmación para iniciar o continuar con la comprobación. Utilice la palabra clave -k functional check-id para especificar una comprobación funcional. Realice sólo una comprobación funcional cada vez.
Nota - Dado que algunas comprobaciones funcionales implican la interrupción del servicio del cluster, no inicie ninguna comprobación funcional hasta que haya leído la descripción detallada de la comprobación y haya determinado si es necesario retirar antes el cluster de la producción. Para mostrar esta información, utilice el comando siguiente:
% cluster list-checks -v -C checkID
Puede ejecutar el comando cluster check en modo detallado con el indicador -v para que se muestre la información de progreso.
Nota - Ejecute cluster check después de realizar un procedimiento de administración que pueda provocar modificaciones en los dispositivos, en los componentes de administración de volúmenes o en la configuración de Oracle Solaris Cluster.
Al ejecutar el comando clzonecluster(1CL) en el nodo con voto del cluster global, se llevan a cabo un conjunto de comprobaciones con el fin de validar la configuración necesaria para que un cluster de zona funcione correctamente. Si todas las comprobaciones son correctas, clzonecluster verify devuelve al indicador de shell y el cluster de zona se puede instalar con seguridad. Si falla alguna de las comprobaciones, clzonecluster verify informa sobre los nodos del cluster global en los que la verificación no obtuvo un resultado correcto. Si ejecuta clzonecluster verify respecto a más de un nodo, se emite un informe para cada nodo y un informe para las comprobaciones que comprenden varios nodos. No se permite utilizar el subcomando verify dentro de los clusters de zona.
phys-schost# su
Vaya a la ficha Patches & Updates (Parches y actualizaciones) de My Oracle Support. Mediante la búsqueda avanzada, seleccione "Solaris Cluster" como producto y especifique "comprobar" en el campo de descripción para localizar los parches de Oracle Solaris Cluster que contengan comprobaciones. Aplique todos los parches que no se encuentren instalados en el cluster.
# cluster check -v -o outputdir
Modo detallado
Redirige la salida al subdirectorio outputdir.
El comando ejecuta todas las comprobaciones básicas disponibles. No se ve afectada ninguna función del cluster.
# cluster check -v -k interactive -o outputdir
Especifica comprobaciones de validación interactivas en ejecución
El comando ejecuta todas las comprobaciones de validación interactivas disponibles y le solicita información necesaria sobre el cluster. No se ve afectada ninguna función del cluster.
# cluster list-checks -k functional
Por ejemplo, una comprobación funcional puede desencadenar que el nodo genere avisos graves o una conmutación por error a otro nodo.
# cluster list-checks -v -C checkID
Especifica un una comprobación específica.
# cluster check -v -k functional -C checkid -o outputdir
Especifica comprobaciones de validación funcionales en ejecución.
Responda a las peticiones de la comprobación para confirmar la ejecución de la comprobación y para cualquier información o acciones que deba realizar.
Nota - para fines de registro, especifique un único nombre de subdirectorio dir_salida para cada comprobación que se ejecuta. Si vuelve a utilizar un nombre dir_salida, la salida para la nueva comprobación sobrescribe el contenido existente del subdirectorio dir_salida reutilizado.
phys-schost# clzonecluster verify zoneclustername
Ejemplo 1-8 Comprobación de la configuración del cluster global con resultado correcto en todas las comprobaciones básicas
El ejemplo siguiente muestra cómo la ejecución de cluster check en modo detallado respecto a los nodos phys-schost-1 y phys-schost-2 supera correctamente todas las comprobaciones.
phys-schost# cluster check -v -h phys-schost-1, phys-schost-2 cluster check: Requesting explorer data and node report from phys-schost-1. cluster check: Requesting explorer data and node report from phys-schost-2. cluster check: phys-schost-1: Explorer finished. cluster check: phys-schost-1: Starting single-node checks. cluster check: phys-schost-1: Single-node checks finished. cluster check: phys-schost-2: Explorer finished. cluster check: phys-schost-2: Starting single-node checks. cluster check: phys-schost-2: Single-node checks finished. cluster check: Starting multi-node checks. cluster check: Multi-node checks finished #
Ejemplo 1-9 Listado de comprobaciones de validación interactivas
En el siguiente ejemplo se enumeran todas las comprobaciones interactivas que están disponibles para ejecutarse en el cluster. En la salida del ejemplo aparece un muestreo de posibles comprobaciones; las comprobaciones disponibles reales varían en cada configuración.
# cluster list-checks -k interactive Some checks might take a few moments to run (use -v to see progress)... I6994574 : (Moderate) Fix for GLDv3 interfaces on cluster transport vulnerability applied?
Ejemplo 1-10 Ejecución de una comprobación de validación funcional
El siguiente ejemplo muestra primero el listado detallado de comprobaciones funcionales. La descripción detallada aparece en una lista para la comprobación F6968101, que indica que la comprobación podría alterar los servicios del cluster. El cluster se elimina de la producción. La comprobación funcional se ejecuta con salida detallada registrada en el subdirectorio funct.test.F6968101.12Jan2011. En la salida de ejemplo aparece un muestreo de posibles comprobaciones; las comprobaciones disponibles reales varían en cada configuración.
# cluster list-checks -k functional F6968101 : (Critical) Perform resource group switchover F6984120 : (Critical) Induce cluster transport network failure - single adapter. F6984121 : (Critical) Perform cluster shutdown F6984140 : (Critical) Induce node panic … # cluster list-checks -v -C F6968101 F6968101: (Critical) Perform resource group switchover Keywords: SolarisCluster3.x, functional Applicability: Applicable if multi-node cluster running live. Check Logic: Select a resource group and destination node. Perform '/usr/cluster/bin/clresourcegroup switch' on specified resource group either to specified node or to all nodes in succession. Version: 1.2 Revision Date: 12/10/10 Take the cluster out of production # cluster check -k functional -C F6968101 -o funct.test.F6968101.12Jan2011 F6968101 initializing... initializing xml output... loading auxiliary data... starting check run... pschost1, pschost2, pschost3, pschost4: F6968101.... starting: Perform resource group switchover ============================================================ >>> Functional Check <<< 'Functional' checks exercise cluster behavior. It is recommended that you do not run this check on a cluster in production mode.' It is recommended that you have access to the system console for each cluster node and observe any output on the consoles while the check is executed. If the node running this check is brought down during execution the check must be rerun from this same node after it is rebooted into the cluster in order for the check to be completed. Select 'continue' for more details on this check. 1) continue 2) exit choice: 1 ============================================================ >>> Check Description <<< … Follow onscreen directions
Ejemplo 1-11 Comprobación de la configuración del cluster global con una comprobación con resultado no satisfactorio
El ejemplo siguiente muestra el nodo phys-schost-2, perteneciente al cluster denominado suncluster, excepto el punto de montaje /global/phys-schost-1. Los informes se crean en el directorio de salida /var/cluster/logs/cluster_check/<timestamp> .
phys-schost# cluster check -v -h phys-schost-1, phys-schost-2 -o /var/cluster/logs/cluster_check/Dec5/ cluster check: Requesting explorer data and node report from phys-schost-1. cluster check: Requesting explorer data and node report from phys-schost-2. cluster check: phys-schost-1: Explorer finished. cluster check: phys-schost-1: Starting single-node checks. cluster check: phys-schost-1: Single-node checks finished. cluster check: phys-schost-2: Explorer finished. cluster check: phys-schost-2: Starting single-node checks. cluster check: phys-schost-2: Single-node checks finished. cluster check: Starting multi-node checks. cluster check: Multi-node checks finished. cluster check: One or more checks failed. cluster check: The greatest severity of all check failures was 3 (HIGH). cluster check: Reports are in /var/cluster/logs/cluster_check/<Dec5>. # # cat /var/cluster/logs/cluster_check/Dec5/cluster_check-results.suncluster.txt ... =================================================== = ANALYSIS DETAILS = =================================================== ------------------------------------ CHECK ID : 3065 SEVERITY : HIGH FAILURE : Global filesystem /etc/vfstab entries are not consistent across all Oracle Solaris Cluster 3.x nodes. ANALYSIS : The global filesystem /etc/vfstab entries are not consistent across all nodes in this cluster. Analysis indicates: FileSystem '/global/phys-schost-1' is on 'phys-schost-1' but missing from 'phys-schost-2'. RECOMMEND: Ensure each node has the correct /etc/vfstab entry for the filesystem(s) in question. ... #
El comando cluster(1CL) incluye comprobaciones que verifican el archivo /etc/vfstab para detectar posibles errores de configuración con el sistema de archivos del cluster y sus puntos de montaje globales.
Nota - Ejecute cluster check después de efectuar cambios en la configuración del cluster que hayan afectado a los dispositivos o a los componentes de administración de volúmenes.
Siga todos los pasos de este procedimiento desde un nodo del cluster global.
% su
phys-schost# cluster check
Ejemplo 1-12 Comprobación de puntos de montaje globales
El ejemplo siguiente muestra el nodo phys-schost-2 del cluster denominado suncluster, excepto el punto de montaje /global/schost-1 . Los informes se envían al directorio de salida, /var/cluster/logs/cluster_check/<timestamp>/ .
phys-schost# cluster check -v1 -h phys-schost-1,phys-schost-2 -o /var/cluster//logs/cluster_check/Dec5/ cluster check: Requesting explorer data and node report from phys-schost-1. cluster check: Requesting explorer data and node report from phys-schost-2. cluster check: phys-schost-1: Explorer finished. cluster check: phys-schost-1: Starting single-node checks. cluster check: phys-schost-1: Single-node checks finished. cluster check: phys-schost-2: Explorer finished. cluster check: phys-schost-2: Starting single-node checks. cluster check: phys-schost-2: Single-node checks finished. cluster check: Starting multi-node checks. cluster check: Multi-node checks finished. cluster check: One or more checks failed. cluster check: The greatest severity of all check failures was 3 (HIGH). cluster check: Reports are in /var/cluster/logs/cluster_check/Dec5. # # cat /var/cluster/logs/cluster_check/Dec5/cluster_check-results.suncluster.txt ... =================================================== = ANALYSIS DETAILS = =================================================== ------------------------------------ CHECK ID : 3065 SEVERITY : HIGH FAILURE : Global filesystem /etc/vfstab entries are not consistent across all Oracle Solaris Cluster 3.x nodes. ANALYSIS : The global filesystem /etc/vfstab entries are not consistent across all nodes in this cluster. Analysis indicates: FileSystem '/global/phys-schost-1' is on 'phys-schost-1' but missing from 'phys-schost-2'. RECOMMEND: Ensure each node has the correct /etc/vfstab entry for the filesystem(s) in question. ... # # cat /var/cluster/logs/cluster_check/Dec5/cluster_check-results.phys-schost-1.txt ... =================================================== = ANALYSIS DETAILS = =================================================== ------------------------------------ CHECK ID : 1398 SEVERITY : HIGH FAILURE : An unsupported server is being used as an Oracle Solaris Cluster 3.x node. ANALYSIS : This server may not been qualified to be used as an Oracle Solaris Cluster 3.x node. Only servers that have been qualified with Oracle Solaris Cluster 3.x are supported as Oracle Solaris Cluster 3.x nodes. RECOMMEND: Because the list of supported servers is always being updated, check with your Oracle representative to get the latest information on what servers are currently supported and only use a server that is supported with Oracle Solaris Cluster 3.x. ... #
El archivo de texto ASCII /var/cluster/logs/commandlog contiene registros de comandos de Oracle Solaris Cluster seleccionados que se ejecutan en un cluster. Los comandos comienzan a registrarse automáticamente al configurarse el cluster y la operación se finaliza al cerrarse el cluster. Los comandos se registran en todos los nodos activos y que se han arrancado en modo de cluster.
Entre los comandos que no quedan registrados en este archivo están los encargados de mostrar la configuración y el estado actual del cluster.
Entre los comandos que quedan registrados en este archivo están los encargados de configurar y modificar el estado actual del cluster:
claccess
cldevice
cldevicegroup
clinterconnect
clnasdevice
clnode
clquorum
clreslogicalhostname
clresource
clresourcegroup
clresourcetype
clressharedaddress
clsetup
clsnmphost
clsnmpmib
clnsmpuser
cltelemetryattribute
cluster
clzonecluster
scdidadm
Los registros del archivo commandlog pueden contener los elementos siguientes:
Fecha y marca de tiempo
Nombre del host desde el cual se ejecutó el comando
ID de proceso del comando
Nombre de inicio de sesión del usuario que ejecutó el comando
Comando ejecutado por el usuario, con todas las opciones y los operandos
Nota - Las opciones del comando se recogen en el archivo commandlog para poderlas identificar, copiar, pegar y ejecutar en el shell.
Estado de salida del comando ejecutado
Nota - Si un comando interrumpe su ejecución de forma anómala con resultados desconocidos, el software Oracle Solaris Cluster no muestra un estado de salida en el archivo commandlog.
De forma predeterminada, el archivo commandlog se archiva periódicamente una vez por semana. Para modificar las directrices de archivado del archivo commandlog, utilice el comando crontab en todos los nodos del cluster. Para obtener más información, consulte la página del comando man crontab(1).
El software Oracle Solaris Cluster conserva en todo momento hasta un máximo de ocho archivos commandlog archivados anteriormente en cada nodo del cluster. El archivo commandlog de la semana actual se denomina commandlog. El archivo semanal completo más reciente se denomina commandlog.0. El archivo semanal completo más antiguo se denomina commandlog.7.
phys-schost# more /var/cluster/logs/commandlog
Ejemplo 1-13 Visualización del contenido de los registros de comandos de Oracle Solaris Cluster
El ejemplo siguiente muestra el contenido del archivo commandlog que se visualiza mediante el comando more.
more -lines10 /var/cluster/logs/commandlog 11/11/2006 09:42:51 phys-schost-1 5222 root START - clsetup 11/11/2006 09:43:36 phys-schost-1 5758 root START - clrg add "app-sa-1" 11/11/2006 09:43:36 phys-schost-1 5758 root END 0 11/11/2006 09:43:36 phys-schost-1 5760 root START - clrg set -y "RG_description=Department Shared Address RG" "app-sa-1" 11/11/2006 09:43:37 phys-schost-1 5760 root END 0 11/11/2006 09:44:15 phys-schost-1 5810 root START - clrg online "app-sa-1" 11/11/2006 09:44:15 phys-schost-1 5810 root END 0 11/11/2006 09:44:19 phys-schost-1 5222 root END -20988320 12/02/2006 14:37:21 phys-schost-1 5542 jbloggs START - clrg -c -g "app-sa-1" -y "RG_description=Joe Bloggs Shared Address RG" 12/02/2006 14:37:22 phys-schost-1 5542 jbloggs END 0