La Tabla 1–2 ofrece un punto de partida para la administración del clúster.
Tabla 1–2 Herramientas de administración de Sun Cluster 3.1
Tarea |
Herramienta |
Documentación |
---|---|---|
Iniciar una sesión remota en el clúster |
Utilice el comando ccp para ejecutar el Panel de control del clúster (CCP). A continuación, seleccione uno de los siguientes iconos: cconsole(1M), crlogin(1M) o ctelnet(1M). | |
Configurar el clúster de forma interactiva |
Ejecute la utilidad scsetup(1M). | |
Mostrar información de la versión de Sun Cluster |
Utilice el comando scinstall(1M) con las opciones -p o -pv. | |
Mostrar los recursos, grupos de recursos y tipos de recursos instalados Nota – Los nombres de tipos de recursos, grupos de recursos y propiedades de recursos no distinguen entre mayúsculas y minúsculas dentro del comando scrgadm. |
Utilice el comando scrgadm(1M) -p. |
Cómo mostrar los tipos de recursos, grupos de recursos y recursos configurados |
Supervisar de forma gráfica los componentes del clúster |
Utilice SunPlex Manager o el módulo Sun Cluster para Sun Management Center. |
Ayuda en línea de SunPlex Manager o del módulo Sun Cluster para Sun Management Center |
Administrar gráficamente ciertos componentes del clúster |
Utilice SunPlex Manager o el módulo Sun Cluster para Sun Management Center. |
Ayuda en línea de SunPlex Manager o del módulo Sun Cluster para Sun Management Center |
Comprobar el estado de los componentes del clúster |
Utilice el comando scstat(1M). | |
Comprobar el estado de los grupos de ruta múltiple de red IP en la red pública |
Utilice el comando scstat(1M) con la opción -i. | |
Ver la configuración del clúster |
Utilice el comando scconf(1M) -p. | |
Comprobar los puntos de montaje globales |
Utilice el comando sccheck(1M). | |
Consultar los mensajes del sistema de Sun Cluster |
Examine el archivo /var/adm/messages. |
Solaris 9: Colección del administrador del sistema “Viewing System Messages” in System Administration Guide: Advanced Administration |
Supervisar el estado de Solstice DiskSuite |
Utilice el comando metastat. |
Documentación de Solstice DiskSuite/Solaris Volume Manager |
Supervisar el estado de VERITAS Volume Manager, si ejecuta Solaris 8 |
Utilice los comandos vxstat o vxva. |
Documentación de VERITAS Volume Manager |
Supervisar el estado de Solaris Volume Manager, si ejecuta Solaris 9 |
Utilice el comando svmstat |
El Panel de control del clúster (CCP) ofrece una plataforma de ejecución para las herramientas cconsole(1M), crlogin(1M) y ctelnet(1M). Las tres inician una conexión de varias ventanas con un conjunto de nodos especificados. Esta conexión incluye una ventana de sistema para cada uno de los nodos especificados y una ventana común. La entrada en ésta se envía a cada una de aquéllas, lo que permite ejecutar comandos de forma simultánea en todos los nodos del clúster. Para obtener más información consulte las páginas de comando man de ccp(1M) y cconsole(1M).
Compruebe que se cumplan los requisitos siguientes antes de iniciar el CCP.
Instale el paquete SUNWccon en la consola de administración.
Compruebe que la variable PATH de la consola de administración contenga el directorio de herramientas de Sun Cluster, /opt/SUNWcluster/bin y /usr/cluster/bin. Se puede especificar una ubicación alternativa del directorio de herramientas definiendo un valor para la variable de entorno $CLUSTER_HOME.
Configure los archivos clusters, serialports y nsswitch.conf en el caso de que utilice un concentrador de terminales. Aquéllos pueden ser archivos /etc o bases de datos NIS/NIS+. Para obtener más información consulte clusters(4) y serialports(4).
Averigüe si dispone de una plataforma Servidor Sun Enterprise 10000.
Si no es así, vaya al Paso 3.
En caso afirmativo, inicie la sesión en el System Service Processor (SSP) y conecte mediante el comando netcon. Una vez efectuada la conexión, escriba Mayús~@ para desbloquear la consola y obtener acceso de escritura.
Inicie la plataforma de ejecución CCP
En la consola de administración, escriba el comando siguiente:
# ccp nombre_clúster |
Se mostrará la plataforma de ejecución CCP.
Para iniciar una sesión remota con el clúster, haga clic en el icono de cconsole, crlogin o ctelnet en la plataforma de ejecución CCP.
También puede iniciar sesiones de cconsole, crlogin o ctelnet en la línea de comandos.
La utilidad scsetup(1M) permite configurar, de forma interactiva, las opciones del quórum, grupos de recursos, transporte del clúster, nombre de sistema privado, grupos de dispositivos y nuevos nodos del clúster.
Conviértase en usuario root en cualquiera de los nodos del clúster.
Escriba el comando scsetup.
# scsetup |
Se mostrará el Menú principal.
Seleccione la opción de configuración en el menú. Siga las instrucciones en pantalla para efectuar las tareas.
Para obtener más información consulte la ayuda en línea de scsetup.
No es necesario haber iniciado una sesión como usuario root para llevar a cabo estos procedimientos.
Mostrar los números de modificaciones de Sun Cluster.
Las versiones de actualización de Sun Cluster se identifican por el número de modificación del producto principal más la versión de actualización.
% showrev -p |
Mostrar el número y texto de versión de Sun Cluster para todos los paquetes de Sun Cluster.
% scinstall -pv |
En el ejemplo siguiente se muestra el número de versión del clúster.
% showrev -p | grep 110648 Patch: 110648-05 Obsoletes: Requires: Incompatibles: Packages: |
En el ejemplo siguiente se muestra la información de la versión del clúster y de todos los paquetes.
% scinstall -pv SunCluster 3.1 SUNWscr: 3.1.0,REV=2000.10.01.01.00 SUNWscdev: 3.1.0,REV=2000.10.01.01.00 SUNWscu: 3.1.0,REV=2000.10.01.01.00 SUNWscman: 3.1.0,REV=2000.10.01.01.00 SUNWscsal: 3.1.0,REV=2000.10.01.01.00 SUNWscsam: 3.1.0,REV=2000.10.01.01.00 SUNWscvm: 3.1.0,REV=2000.10.01.01.00 SUNWmdm: 4.2.1,REV=2000.08.08.10.01 |
Este procedimiento se puede efectuar también mediante la GUI de SunPlex Manager. Consulte el Capítulo 10. Para obtener más información consulte la ayuda en línea de SunPlex Manager.
No es necesario iniciar la sesión como usuario root para llevar a cabo este procedimiento.
Mostrar los tipos de recursos, grupos de recursos y recursos configurados en el clúster.
% scrgadm -p |
En el ejemplo siguiente se muestran los tipos de recursos (RT Name), grupos de recursos (RG Name) y recursos (RS Name ) configurados para el clúster schost.
% scrgadm -p RT Name: SUNW.SharedAddress RT Description: Tipo de recurso de dirección compartida de HA RT Name: SUNW.LogicalHostname RT Description: Tipo de recurso de nombre lógico de servidor RG Name: schost-sa-1 RG Description: RS Name: schost-1 RS Description: RS Type: SUNW.SharedAddress RS Resource Group: schost-sa-1 RG Name: schost-lh-1 RG Description: RS Name: schost-3 RS Description: RS Type: SUNW.LogicalHostname RS Resource Group: schost-lh-1 |
Este procedimiento se puede efectuar también mediante la GUI de SunPlex Manager. Para obtener más información consulte la ayuda en línea de SunPlex Manager.
No es necesario iniciar la sesión como usuario root para llevar a cabo este procedimiento.
Comprobar el estado de los componentes del clúster.
% scstat -p |
En el ejemplo siguiente se muestra una posible información del estado de componentes del clúster devuelta por el comando scstat(1M).
% scstat -p -- Nodos del clúster -- Nombre del nodo Estado --------------- ------ Nodo del clúster: phys-schost-1 Fuera de línea Nodo del clúster: phys-schost-2 Fuera de línea Nodo del clúster: phys-schost-3 Fuera de línea Nodo del clúster: phys-schost-4 Fuera de línea --------------------------------------------------------------------------------- -- Cluster Transport Paths -- Extremo Extremo Estado ------- ------- ------ Rutas de transporte del clúster: phys-schost-1:qfe1 phys-schost-4:qfe1 Ruta en línea Rutas de transporte del clúster: phys-schost-1:hme1 phys-schost-4:hme1 Ruta en línea ... --------------------------------------------------------------------------------- -- Resumen del quórum -- Votos del quórum posibles: 6 Votos del quórum necesarios: 4 Votos del quórum presentes: 6 -- Votos del quórum por nodo -- Nombre del nodo Presente Posible Estado --------------- -------- ------- ------ Votos del nodo: phys-schost-1 1 1 En línea Votos del nodo: phys-schost-2 1 1 En línea ... -- Votos del quórum por dispositivo -- Nombre del dispositivo Presente Posible Estado ---------------------- -------- ------- ------ Votos del dispositivo: /dev/did/rdsk/d2s2 1 1 En línea Votos del dispositivo: /dev/did/rdsk/d8s2 1 1 En línea ... -- Servidores de grupo de dispositivos -- Grupo de dispositivos Primario Secundario -------------------- -------- ---------- Servidores de grupo de dispositivos: rmt/1 - - Servidores de grupo de dispositivos: rmt/2 - - Servidores de grupo de dispositivos: schost-1 phys-schost-2 phys-schost-1 Servidores de grupo de dispositivos: schost-3 - - -- Estado de grupo de dispositivos-- Grupo de dispositivos Estado --------------------- ----- Estado de grupo de dispositivos: rmt/1 Fuera de línea Estado de grupo de dispositivos: rmt/2 Fuera de línea Estado de grupo de dispositivos: schost-1 En línea Estado de grupo de dispositivos: schost-3 Fuera de línea ------------------------------------------------------------------------- -- Grupos de recursos y recursos -- Nombre de grupo Recursos --------------- -------- Recursos: test-rg test_1 Recursos: real-property-rg - Recursos: failover-rg - Recursos: descript-rg-1 - ... -- Grupos de recursos -- Nombre del grupo Nombre del nodo Estado --------------- --------------- ------ Grupo: test-rg phys-schost-1 Fuera de línea Grupo: test-rg phys-schost-2 Fuera de línea ... -- Recursos -- Nombre del recurso Nombre del nodo Estado Mensaje de estado ------------------ --------------- ------ ----------------- Recurso: test_1 phys-schost-1 Fuera de línea Fuera de línea Recurso: test_1 phys-schost-2 Fuera de línea Fuera de línea -------------------------------------------------------------------------------- -- Grupos de IPMP -- Nombre del nodo Grupo Estado Adaptador Estado --------------- ----- ------ --------- ------ Grupo de IPMP: phys-schost-1 sc_ipmp0 En línea qfe1 Fuera de línea Grupo de IPMP: phys-schost-2 sc_ipmp0 En línea qfe1 Fuera de línea ------------------------------------------------------------------ |
Este procedimiento se puede efectuar también mediante la GUI de SunPlex Manager. Para obtener más información consulte la ayuda en línea de SunPlex Manager.
No es necesario iniciar la sesión como usuario root para llevar a cabo este procedimiento.
Para comprobar el estado de los grupos de Ruta múltiple de red IP, utilice el comando scstat(1M).
En el ejemplo siguiente se muestra una posible información del estado de los componentes del clúster devuelta por el comando scstat -i.
% scstat -i ------------------------------------------------------------------------- -- Grupos de IPMP -- Nombre del nodo Grupo Estado Adaptador Estado --------------- ----- ------ --------- ------ Grupo de IPMP: phys-schost-1 sc_ipmp1 En línea qfe2 En línea Grupo de IPMP: phys-schost-1 sc_ipmp0 En línea qfe1 En línea Grupo de IPMP: phys-schost-2 sc_ipmp1 En línea qfe2 En línea Grupo de IPMP: phys-schost-2 sc_ipmp0 En línea qfe1 En línea -------------------------------------------------------------------------- |
Este procedimiento se puede efectuar también mediante la GUI de SunPlex Manager. Para obtener más información consulte la ayuda en línea de SunPlex Manager.
No es necesario iniciar la sesión como usuario root para llevar a cabo este procedimiento.
Visualizar la configuración del clúster
% scconf -p |
Para mostrar más información con el comando scconf, utilice las opciones de descripción detallada. Para obtener más detalles consulte la página de comando man scconf(1M).
En el ejemplo siguiente se muestra la configuración del clúster.
% scconf -p Nombre del clúster: cluster-1 Cluster ID: 0x3908EE1C Modo de instalación del clúster inhabilitado Red privada del clúster 172.16.0.0 Máscara de red privada del clúster 255.255.0.0 Autenticación de nodo nuevo del clúster unix Lista de nodos nuevos del clúster <NULL - Allow any node> Nodos del clúster: phys-schost-1 phys-schost-2 phys-schost-3 phys-schost-4 Nombre de nodo del clúster: phys-schost-1 ID del nodo: 1 Nodo habilitado: yes Nombre de sistema privado del nodo: clusternode1-priv Número de votos del quórum del nodo: 1 Clave de reserva del nodo: 0x3908EE1C00000001 Adaptadores del transporte del nodo: hme1 qfe1 qfe2 Adaptador del transporte del nodo: hme1 Adaptador habilitado: yes Tipo de transporte del adaptador: dlpi Propiedad del adaptador: device_name=hme Propiedad del adaptador: device_instance=1 Propiedad del adaptador: dlpi_heartbeat_timeout=10000 ... Uniones del transporte del clúster: hub0 hub1 hub2 Unión del transporte del clúster: hub0 Unión habilitada: yes Tipo de unión: switch Nombres del puerto de la unión: 1 2 3 4 ... Puerto de la unión: 1 Puerto habilitado: yes Puerto de la unión: 2 Puerto habilitado: yes ... Cables del transporte del clúster Extremo Extremo Estado ------- ------- ------ Cable del transporte: phys-schost-1:hme1@0 hub0@1 Habilitado Cable del transporte: phys-schost-1:qfe1@0 hub1@1 Habilitado Cable del transporte: phys-schost-1:qfe2@0 hub2@1 Habilitado Cable del transporte: phys-schost-2:hme1@0 hub0@2 Habilitado ... Dispositivos del quórum: d2 d8 Nombre del dispositivo del quórum: d2 Votos del dispositivo del quórum: 1 Dispositivo del quórum habilitado: yes Nombre del dispositivo del quórum: /dev/did/rdsk/d2s2 Sistemas del dispositivo del quórum (habilitado): phys-schost-1 phys-schost-2 Sistemas del dispositivo del quórum (inhabilitado): ... Nombre del grupo de dispositivos: schost-3 Tipo del grupo de dispositivos: SVM Rectificación del grupo de dispositivos habilitada: no Lista de nodos del grupo de dispositivos: phys-schost-3, phys-schost-4 Nombre del conjunto de discos: schost-3 |
El comando sccheck(1M) ejecuta una serie de comprobaciones para validar la configuración básica necesaria para que el clúster funcione correctamente. Si todas las comprobaciones son satisfactorias, sccheck vuelve al indicador de shell. Si alguna de ellas no lo es, sccheck genera informes en el directorio especificado o en el directorio de salida predeterminado. Si ejecuta sccheck para más de un nodo, el comando generará un informe para cada nodo y otro para las comprobaciones multinodo.
El comando sccheck se ejecuta en dos fases: recopilación de datos y análisis. La primera puede ser un proceso prolongado, en función de la configuración del sistema. Se puede ejecutar sccheck en modo de descripción detallada mediante la opción -v1, que muestra mensajes de progreso, o mediante la opción -v2, que hace que sccheck muestre mensajes aún más detallados, especialmente durante la recopilación de datos.
Ejecute el comando sccheck después de efectuar procedimientos de administración que puedan modificar dispositivos, componentes de gestión de volúmenes o la configuración de Sun Cluster.
Conviértase en usuario root en cualquiera de los nodos del clúster.
% su |
Verifique la configuración del clúster.
# sccheck |
En el ejemplo siguiente se muestra la ejecución en modo detallado del comando sccheck en los nodos phys-schost-1 y phys-schost-2 con todas las comprobaciones satisfactorias.
# sccheck -v1 -h phys-schost-1,phys-schost-2 sccheck: Solicitando datos de explorador e informe de nodos de phys-schost-1. sccheck: Solicitando datos de explorador e informe de nodos de phys-schost-2. sccheck: phys-schost-1: Explorador finalizado. sccheck: phys-schost-1: Iniciando comprobaciones de nodo único. sccheck: phys-schost-1: Comprobaciones de nodo único finalizadas. sccheck: phys-schost-2: Explorador finalizado. sccheck: phys-schost-2: Iniciando comprobaciones de nodo único. sccheck: phys-schost-2: Comprobaciones de nodo único finalizadas. sccheck: Iniciando comprobaciones multinodo. sccheck: Comprobaciones multinodo finalizadas # |
En el ejemplo siguiente se muestra que al nodo phys-schost-2 del clúster suncluster le falta el punto de montaje /global/phys-schost-1. Se generan informes en el directorio de salida /var/cluster/sccheck/myReports/.
# sccheck -v1 -h phys-schost-1,phys-schost-2 -o /var/cluster/sccheck/myReports sccheck: Solicitando datos de explorador e informe de nodos de phys-schost-1. sccheck: Solicitando datos de explorador e informe de nodos de phys-schost-2. sccheck: phys-schost-1: Explorador finalizado. sccheck: phys-schost-1: Iniciando comprobaciones de nodo único. sccheck: phys-schost-1: Comprobaciones de nodo único finalizadas. sccheck: phys-schost-2: Explorador finalizado. sccheck: phys-schost-2: Iniciando comprobaciones de nodo único. sccheck: phys-schost-2: Comprobaciones de nodo único finalizadas. sccheck: Iniciando comprobaciones multinodo. sccheck: Comprobaciones multinodo finalizadas sccheck: Una o más comprobaciones no han sido satisfactorias. sccheck: La gravedad máxima de los fallos de comprobación ha sido 3 (HIGH). sccheck: Los informes están en /var/cluster/sccheck/myReports. # # cat /var/cluster/sccheck/myReports/sccheck-results.suncluster.txt ... =================================================== = ANALYSIS DETAILS = =================================================== ------------------------------------ CHECK ID : 3065 SEVERITY : HIGH FAILURE : Global filesystem /etc/vfstab entries are not consistent across all Sun Cluster 3.x nodes. ANALYSIS : The global filesystem /etc/vfstab entries are not consistent across all nodes in this cluster. Analysis indicates: FileSystem '/global/phys-schost-1' is on 'phys-schost-1' but missing from 'phys-schost-2'. RECOMMEND: Ensure each node has the correct /etc/vfstab entry for the filesystem(s) in question. ... # |
El comando sccheck(1M) incluye la comprobación del archivo /etc/vfstab por posibles errores de configuración con el sistema de archivos del clúster y sus puntos de montaje globales.
Ejecute sccheck después de efectuar cambios en la configuración del clúster que afecten a dispositivos o a componentes de gestión de volúmenes.
Conviértase en usuario root en cualquiera de los nodos del clúster.
% su |
Verifique la configuración del clúster.
# sccheck |
En el ejemplo siguiente se muestra que al nodo phys-schost-2 del clúster suncluster le falta el punto de montaje /global/schost-1. Los informes generados se envían al directorio de salida /var/cluster/sccheck/myReports/.
# sccheck -v1 -h phys-schost-1,phys-schost-2 -o /var/cluster/sccheck/myReports sccheck: Solicitando datos de explorador e informe de nodos de phys-schost-1. sccheck: Solicitando datos de explorador e informe de nodos de phys-schost-2. sccheck: phys-schost-1: Explorador finalizado. sccheck: phys-schost-1: Iniciando comprobaciones de nodo único. sccheck: phys-schost-1: Comprobaciones de nodo único finalizadas. sccheck: phys-schost-2: Explorador finalizado. sccheck: phys-schost-2: Iniciando comprobaciones de nodo único. sccheck: phys-schost-2: Comprobaciones de nodo único finalizadas. sccheck: Iniciando comprobaciones multinodo. sccheck: Comprobaciones multinodo finalizadas sccheck: Una o más comprobaciones no han sido satisfactorias. sccheck: La gravedad máxima de los fallos de comprobación ha sido 3 (HIGH). sccheck: Los informes están en /var/cluster/sccheck/myReports. # # cat /var/cluster/sccheck/myReports/sccheck-results.suncluster.txt ... =================================================== = ANALYSIS DETAILS = =================================================== ------------------------------------ CHECK ID : 3065 SEVERITY : HIGH FAILURE : Global filesystem /etc/vfstab entries are not consistent across all Sun Cluster 3.x nodes. ANALYSIS : The global filesystem /etc/vfstab entries are not consistent across all nodes in this cluster. Analysis indicates: FileSystem '/global/phys-schost-1' is on 'phys-schost-1' but missing from 'phys-schost-2'. RECOMMEND: Ensure each node has the correct /etc/vfstab entry for the filesystem(s) in question. ... # # cat /var/cluster/sccheck/myReports/sccheck-results.phys-schost-1.txt ... =================================================== = ANALYSIS DETAILS = =================================================== ------------------------------------ CHECK ID : 1398 SEVERITY : HIGH FAILURE : An unsupported server is being used as a Sun Cluster 3.x node. ANALYSIS : This server may not been qualified to be used as a Sun Cluster 3.x node. Only servers that have been qualified with Sun Cluster 3.x are supported as Sun Cluster 3.x nodes. RECOMMEND: Because the list of supported servers is always being updated, check with your Sun Microsystems representative to get the latest information on what servers are currently supported and only use a server that is supported with Sun Cluster 3.x. ... # |