Tabla 1–2 proporciona un punto de partida para administrar el clúster.
Tabla 1–2 Herramientas de administración de Sun Cluster 3.1 4/04
Tarea |
Herramienta |
Documentación |
---|---|---|
Iniciar una sesión remota en el clúster |
Utilice el comando ccp para ejecutar el Panel de control del clúster (CCP). A continuación, seleccione uno de los siguientes iconos: cconsole(1M), crlogin(1M), or ctelnet(1M). | |
Configurar el clúster de forma interactiva |
Ejecute la utilidad scsetup(1M). | |
Mostrar información de la versión de Sun Cluster |
Utilice el comando scinstall(1M) con las opciones -p o -pv. | |
Mostrar los recursos, grupos de recursos y tipos de recursos instalados Nota – Los nombres de tipos, grupos y propiedades de recursos no distinguen entre mayúsculas y minúsculas dentro del comando scrgadm. |
Utilice el comando scrgadm(1M) -p. |
Cómo mostrar los tipos de recursos, grupos de recursos y recursos configurados |
Supervisar de forma gráfica los componentes del clúster |
Utilice SunPlex Manager. |
Ayuda en línea de SunPlex Manager |
Administrar gráficamente ciertos componentes del clúster |
Utilice SunPlex Manager o el módulo Sun Cluster para Sun Management Center (disponible con Sun Cluster sólo en los sistemas basados en la plataforma SPARC). |
Ayuda en línea de SunPlex Manager o del módulo Sun Cluster para Sun Management Center |
Comprobar el estado de los componentes del clúster |
Utilice el comando scstat(1M). | |
Comprobar el estado de los grupos de ruta múltiple de red IP en la red pública |
Utilice el comando scstat(1M) con la opción -i. | |
Ver la configuración del clúster |
Utilice el comando scconf(1M) -p. | |
Comprobar los puntos de montaje globales |
Utilice el comando sccheck(1M). | |
Consultar los mensajes del sistema de Sun Cluster |
Examine el archivo /var/adm/messages. |
Viewing System Messages de System Administration Guide: Advanced Administration en System Administration:Advanced Administration |
Supervisar el estado de Solstice DiskSuite |
Utilice el comando metastat. |
Documentación de Solstice DiskSuite/Solaris Volume Manager |
Supervisar el estado de VERITAS Volume Manager, si ejecuta Solaris 8 |
Utilice los comandos vxstat o vxva. |
Documentación de VERITAS Volume Manager |
Supervisar el estado de Solaris Volume Manager, si ejecuta Solaris 9 |
Utilice el comando svmstat |
El panel de control del clúster (CCP) proporciona una plataforma de ejecución para las herramientas cconsole(1M), crlogin(1M) y ctelnet(1M). Las tres inician una conexión de varias ventanas con un conjunto de nodos especificados. Esta conexión incluye una ventana de sistema para cada uno de los nodos especificados y una ventana común. La entrada en ésta se envía a cada una de aquéllas, lo que permite ejecutar comandos de forma simultánea en todos los nodos del clúster. Consulte las páginas de comando man ccp(1M) y cconsole(1M) para obtener más información.
Compruebe que se cumplan los requisitos siguientes antes de iniciar el CCP.
Instale el paquete SUNWccon en la consola de administración.
Compruebe que la variable PATH de la consola de administración contenga el directorio de herramientas de Sun Cluster, /opt/SUNWcluster/bin y /usr/cluster/bin. Se puede especificar una ubicación alternativa para el directorio de herramientas definiendo un valor para la variable de entorno $CLUSTER_HOME.
Configure los archivos clusters, serialports y nsswitch.conf en el caso de que utilice un concentrador de terminales. Aquéllos pueden ser archivos /etc o bases de datos NIS/NIS+. Consulte clusters(4) y serialports(4) para obtener más información.
Averigüe si dispone de una plataforma Servidor Sun Enterprise 10000.
De lo contrario, continúe con el Paso 3.
En caso afirmativo, inicie la sesión en el System Service Processor (SSP) y conecte mediante el comando netcon. Una vez efectuada la conexión, escriba Mayús~@ para desbloquear la consola y obtener acceso de escritura.
Inicie la plataforma de ejecución CCP
En la consola de administración, escriba el comando siguiente:
# ccp clustername |
Se mostrará la plataforma de ejecución CCP.
Para iniciar una sesión remota con el clúster, haga clic en el icono de cconsole, crlogin o ctelnet en la plataforma de ejecución CCP.
También puede iniciar sesiones de cconsole, crlogin o ctelnet en la línea de comandos.
La utilidad scsetup(1M) permite configurar de forma interactiva el quórum, los grupos de recursos, el transporte del clúster, el nombre de host privado, el grupo de dispositivos y las nuevas opciones de nodo del clúster.
Conviértase en usuario root en cualquiera de los nodos del clúster.
Ejecute la utilidad scsetup.
# scsetup |
Se mostrará el Menú principal.
Seleccione la opción de configuración en el menú. Siga las instrucciones en pantalla para efectuar las tareas.
Para obtener más información consulte la ayuda en línea de scsetup.
No es necesario haber iniciado sesión como usuario root para llevar a cabo este procedimiento.
Escriba el comando siguiente:
% showrev -p |
Las versiones de actualización de Sun Cluster se identifican por el número de revisión del producto principal más la versión de actualización.
El siguiente ejemplo muestra información sobre la modificación 110648-05.
% showrev -p | grep 110648 Patch: 110648-05 Obsoletes: Requires: Incompatibles: Packages: |
No es necesario haber iniciado sesión como usuario root para llevar a cabo este procedimiento.
Escriba el comando siguiente:
% scinstall -pv |
Este comando muestra el número de modificación de Sun Cluster y las cadenas de versión de todos los paquetes de Sun Cluster.
En el ejemplo siguiente se muestra la información de la versión del clúster y de todos los paquetes.
% scinstall -pv SunCluster 3.1 SUNWscr: 3.1.0,REV=2000.10.01.01.00 SUNWscdev: 3.1.0,REV=2000.10.01.01.00 SUNWscu: 3.1.0,REV=2000.10.01.01.00 SUNWscman: 3.1.0,REV=2000.10.01.01.00 SUNWscsal: 3.1.0,REV=2000.10.01.01.00 SUNWscsam: 3.1.0,REV=2000.10.01.01.00 SUNWscvm: 3.1.0,REV=2000.10.01.01.00 SUNWmdm: 4.2.1,REV=2000.08.08.10.01 |
Este procedimiento se puede efectuar también mediante la GUI de SunPlex Manager. Consulte el Capítulo 10, Administración de Sun Cluster con las interfaces gráficas de usuario . Para obtener más información consulte la ayuda en línea de SunPlex Manager.
No es necesario iniciar la sesión como usuario root para llevar a cabo este procedimiento.
Mostrar los tipos de recursos, grupos de recursos y recursos configurados en el clúster.
% scrgadm -p |
En el ejemplo siguiente se muestran los tipos de recursos (RT Name), grupos de recursos (RG Name) y recursos (RS Name ) configurados para el clúster schost.
% scrgadm -p RT Name: SUNW.SharedAddress RT Description: HA Shared Address Resource Type RT Name: SUNW.LogicalHostname RT Description: Logical Hostname Resource Type RG Name: schost-sa-1 RG Description: RS Name: schost-1 RS Description: RS Type: SUNW.SharedAddress RS Resource Group: schost-sa-1 RG Name: schost-lh-1 RG Description: RS Name: schost-3 RS Description: RS Type: SUNW.LogicalHostname RS Resource Group: schost-lh-1 |
Este procedimiento se puede efectuar también mediante la GUI de SunPlex Manager. Para obtener más información consulte la ayuda en línea de SunPlex Manager.
No es necesario iniciar la sesión como usuario root para llevar a cabo este procedimiento.
Comprobar el estado de los componentes del clúster.
% scstat -p |
En el ejemplo siguiente se proporciona una información de estado de muestra de los componentes del clúster devuelta por scstat(1M).
% scstat -p -- Cluster Nodes -- Node name Status --------- ------ Cluster node: phys-schost-1 Online Cluster node: phys-schost-2 Online Cluster node: phys-schost-3 Online Cluster node: phys-schost-4 Online ------------------------------------------------------------------ -- Cluster Transport Paths -- Endpoint Endpoint Status -------- -------- ------ Transport path: phys-schost-1:qfe1 phys-schost-4:qfe1 Path online Transport path: phys-schost-1:hme1 phys-schost-4:hme1 Path online ... ------------------------------------------------------------------ -- Quorum Summary -- Quorum votes possible: 6 Quorum votes needed: 4 Quorum votes present: 6 -- Quorum Votes by Node -- Node Name Present Possible Status --------- ------- -------- ------ Node votes: phys-schost-1 1 1 Online Node votes: phys-schost-2 1 1 Online ... -- Quorum Votes by Device -- Device Name Present Possible Status ----------- ------- -------- ------ Device votes: /dev/did/rdsk/d2s2 1 1 Online Device votes: /dev/did/rdsk/d8s2 1 1 Online ... -- Device Group Servers -- Device Group Primary Secondary ------------ ------- --------- Device group servers: rmt/1 - - Device group servers: rmt/2 - - Device group servers: schost-1 phys-schost-2 phys-schost-1 Device group servers: schost-3 - - -- Device Group Status -- Device Group Status ------------ ------ Device group status: rmt/1 Offline Device group status: rmt/2 Offline Device group status: schost-1 Online Device group status: schost-3 Offline ------------------------------------------------------------------ -- Resource Groups and Resources -- Group Name Resources ---------- --------- Resources: test-rg test_1 Resources: real-property-rg - Resources: failover-rg - Resources: descript-rg-1 - ... -- Resource Groups -- Group Name Node Name State ---------- --------- ----- Group: test-rg phys-schost-1 Offline Group: test-rg phys-schost-2 Offline ... -- Resources -- Resource Name Node Name State Status Message ------------- --------- ----- -------------- Resource: test_1 phys-schost-1 Offline Offline Resource: test_1 phys-schost-2 Offline Offline ----------------------------------------------------------------- -- IPMP Groups -- Node Name Group Status Adapter Status --------- ----- ------ ------- ------ IPMP Group: phys-schost-1 sc_ipmp0 Online qfe1 Online IPMP Group: phys-schost-2 sc_ipmp0 Online qfe1 Online ------------------------------------------------------------------ |
Este procedimiento se puede efectuar también mediante la GUI de SunPlex Manager. Para obtener más información consulte la ayuda en línea de SunPlex Manager.
No es necesario iniciar la sesión como usuario root para llevar a cabo este procedimiento.
Para comprobar el estado de los grupos de Ruta múltiple de red IP, utilice el comando scstat(1M).
Comprobar el estado de los componentes del clúster.
% scstat -i |
En el ejemplo siguiente se muestra un ejemplo de información del estado de los componentes del clúster devuelta por el comando scstat -i.
% scstat -i ----------------------------------------------------------------- -- IPMP Groups -- Node Name Group Status Adapter Status --------- ----- ------ ------- ------ IPMP Group: phys-schost-1 sc_ipmp1 Online qfe2 Online IPMP Group: phys-schost-1 sc_ipmp0 Online qfe1 Online IPMP Group: phys-schost-2 sc_ipmp1 Online qfe2 Online IPMP Group: phys-schost-2 sc_ipmp0 Online qfe1 Online ------------------------------------------------------------------ |
Este procedimiento se puede efectuar también mediante la GUI de SunPlex Manager. Para obtener más información consulte la ayuda en línea de SunPlex Manager.
No es necesario iniciar la sesión como usuario root para llevar a cabo este procedimiento.
Visualizar la configuración del clúster
% scconf -p |
Para mostrar más información con el comando scconf, utilice las opciones de descripción detallada. Consulte la página de comando man scconf(1M) para obtener más detalles.
En el ejemplo siguiente se muestra la configuración del clúster.
% scconf -p Cluster name: cluster-1 Cluster ID: 0x3908EE1C Cluster install mode: disabled Cluster private net: 172.16.0.0 Cluster private netmask: 192.168.0.0 Cluster new node authentication: unix Cluster new node list: <NULL - Allow any node> Cluster nodes: phys-schost-1 phys-schost-2 phys-schost-3 phys-schost-4 Cluster node name: phys-schost-1 Node ID: 1 Node enabled: yes Node private hostname: clusternode1-priv Node quorum vote count: 1 Node reservation key: 0x3908EE1C00000001 Node transport adapters: hme1 qfe1 qfe2 Node transport adapter: hme1 Adapter enabled: yes Adapter transport type: dlpi Adapter property: device_name=hme Adapter property: device_instance=1 Adapter property: dlpi_heartbeat_timeout=10000 ... Cluster transport junctions: hub0 hub1 hub2 Cluster transport junction: hub0 Junction enabled: yes Junction type: switch Junction port names: 1 2 3 4 ... Junction port: 1 Port enabled: yes Junction port: 2 Port enabled: yes ... Cluster transport cables Endpoint Endpoint State -------- -------- ----- Transport cable: phys-schost-1:hme1@0 hub0@1 Enabled Transport cable: phys-schost-1:qfe1@0 hub1@1 Enabled Transport cable: phys-schost-1:qfe2@0 hub2@1 Enabled Transport cable: phys-schost-2:hme1@0 hub0@2 Enabled ... Quorum devices: d2 d8 Quorum device name: d2 Quorum device votes: 1 Quorum device enabled: yes Quorum device name: /dev/did/rdsk/d2s2 Quorum device hosts (enabled): phys-schost-1 phys-schost-2 Quorum device hosts (disabled): ... Device group name: schost-3 Device group type: SVM Device group failback enabled: no Device group node list: phys-schost-3, phys-schost-4 Diskset name: schost-3 |
El comando sccheck(1M) ejecuta una serie de comprobaciones para validar la configuración básica necesaria para que un clúster funcione correctamente. Si todas las comprobaciones son satisfactorias, sccheck vuelve al indicador de shell. Si alguna de ellas no lo es, sccheck genera informes en el directorio especificado o en el directorio de salida predeterminado. Si ejecuta sccheck para más de un nodo, el comando generará un informe para cada nodo y otro para las comprobaciones multinodo.
El comando sccheck se ejecuta en dos fases: recopilación de datos y análisis. La primera puede ser un proceso prolongado, en función de la configuración del sistema. Se puede ejecutar sccheck en modo de descripción detallada mediante la opción -v1, que muestra mensajes de progreso, o mediante la opción -v2, que hace que sccheck muestre mensajes aún más detallados, especialmente durante la recopilación de datos.
Ejecute el comando sccheck después de efectuar procedimientos de administración que puedan modificar dispositivos, componentes de gestión de volúmenes o la configuración de Sun Cluster.
Conviértase en usuario root en cualquiera de los nodos del clúster.
% su |
Verifique la configuración del clúster.
# sccheck |
En el ejemplo siguiente se muestra la ejecución en modo detallado del comando sccheck en los nodos phys-schost-1 y phys-schost-2 con todas las comprobaciones satisfactorias.
# sccheck -v1 -h phys-schost-1,phys-schost-2 sccheck: Requesting explorer data and node report from phys-schost-1. sccheck: Requesting explorer data and node report from phys-schost-2. sccheck: phys-schost-1: Explorer finished. sccheck: phys-schost-1: Starting single-node checks. sccheck: phys-schost-1: Single-node checks finished. sccheck: phys-schost-2: Explorer finished. sccheck: phys-schost-2: Starting single-node checks. sccheck: phys-schost-2: Single-node checks finished. sccheck: Starting multi-node checks. sccheck: Multi-node checks finished # |
En el ejemplo siguiente se muestra que al nodo phys-schost-2 del clúster suncluster le falta el punto de montaje /global/phys-schost-1. Se generan informes en el directorio de salida /var/cluster/sccheck/myReports/.
# sccheck -v1 -h phys-schost-1,phys-schost-2 -o /var/cluster/sccheck/myReports sccheck: Requesting explorer data and node report from phys-schost-1. sccheck: Requesting explorer data and node report from phys-schost-2. sccheck: phys-schost-1: Explorer finished. sccheck: phys-schost-1: Starting single-node checks. sccheck: phys-schost-1: Single-node checks finished. sccheck: phys-schost-2: Explorer finished. sccheck: phys-schost-2: Starting single-node checks. sccheck: phys-schost-2: Single-node checks finished. sccheck: Starting multi-node checks. sccheck: Multi-node checks finished. sccheck: One or more checks failed. sccheck: The greatest severity of all check failures was 3 (HIGH). sccheck: Reports are in /var/cluster/sccheck/myReports. # # cat /var/cluster/sccheck/myReports/sccheck-results.suncluster.txt ... =================================================== = ANALYSIS DETAILS = =================================================== ------------------------------------ CHECK ID : 3065 SEVERITY : HIGH FAILURE : Global filesystem /etc/vfstab entries are not consistent across all Sun Cluster 3.x nodes. ANALYSIS : The global filesystem /etc/vfstab entries are not consistent across all nodes in this cluster. Analysis indicates: FileSystem '/global/phys-schost-1' is on 'phys-schost-1' but missing from 'phys-schost-2'. RECOMMEND: Ensure each node has the correct /etc/vfstab entry for the filesystem(s) in question. ... # |
El comando sccheck(1M) permite realizar comprobaciones que examinan el archivo /etc/vfstab en busca de errores de configuración con el sistema de archivos del clúster y sus puntos de montaje globales.
Ejecute sccheck después de efectuar cambios en la configuración del clúster que afecten a dispositivos o a componentes de gestión de volúmenes.
Conviértase en usuario root en cualquiera de los nodos del clúster.
% su |
Verifique la configuración del clúster.
# sccheck |
En el ejemplo siguiente se muestra que al nodo phys-schost-2 del clúster suncluster le falta el punto de montaje /global/schost-1. Los informes generados se envían al directorio de salida /var/cluster/sccheck/myReports/.
# sccheck -v1 -h phys-schost-1,phys-schost-2 -o /var/cluster/sccheck/myReports sccheck: Requesting explorer data and node report from phys-schost-1. sccheck: Requesting explorer data and node report from phys-schost-2. sccheck: phys-schost-1: Explorer finished. sccheck: phys-schost-1: Starting single-node checks. sccheck: phys-schost-1: Single-node checks finished. sccheck: phys-schost-2: Explorer finished. sccheck: phys-schost-2: Starting single-node checks. sccheck: phys-schost-2: Single-node checks finished. sccheck: Starting multi-node checks. sccheck: Multi-node checks finished. sccheck: One or more checks failed. sccheck: The greatest severity of all check failures was 3 (HIGH). sccheck: Reports are in /var/cluster/sccheck/myReports. # # cat /var/cluster/sccheck/myReports/sccheck-results.suncluster.txt ... =================================================== = ANALYSIS DETAILS = =================================================== ------------------------------------ CHECK ID : 3065 SEVERITY : HIGH FAILURE : Global filesystem /etc/vfstab entries are not consistent across all Sun Cluster 3.x nodes. ANALYSIS : The global filesystem /etc/vfstab entries are not consistent across all nodes in this cluster. Analysis indicates: FileSystem '/global/phys-schost-1' is on 'phys-schost-1' but missing from 'phys-schost-2'. RECOMMEND: Ensure each node has the correct /etc/vfstab entry for the filesystem(s) in question. ... # # cat /var/cluster/sccheck/myReports/sccheck-results.phys-schost-1.txt ... =================================================== = ANALYSIS DETAILS = =================================================== ------------------------------------ CHECK ID : 1398 SEVERITY : HIGH FAILURE : An unsupported server is being used as a Sun Cluster 3.x node. ANALYSIS : This server may not been qualified to be used as a Sun Cluster 3.x node. Only servers that have been qualified with Sun Cluster 3.x are supported as Sun Cluster 3.x nodes. RECOMMEND: Because the list of supported servers is always being updated, check with your Sun Microsystems representative to get the latest information on what servers are currently supported and only use a server that is supported with Sun Cluster 3.x. ... # |