En este capítulo se ofrece información para preparar la administración del clúster y los procedimientos para el uso de las herramientas de administración de Sun Cluster.
El entorno de alta disponibilidad de Sun Cluster garantiza que las aplicaciones esenciales estén siempre disponibles para los usuarios finales. El trabajo del administrador del sistema es garantizar que Sun Cluster sea estable y operativo.
Familiarícese con la información de planificación de Software Sun Cluster: Guía de instalación para el sistema operativo Solaris y Sun Cluster: Guía de conceptos para el SO Solaris antes de comenzar las tareas de planificación. La administración de Sun Cluster se organiza en tareas en los manuales siguientes.
Tareas estándar, utilizadas en la administración y mantenimiento regular, incluso diario, del clúster, que se describen en la presente guía.
Tareas de servicios de datos, como la instalación, configuración y modificación de propiedades, Estas tareas se describen en Sun Cluster Data Services Planning and Administration Guide for Solaris OS.
Tareas de servicio, como agregar o reparar hardware de almacenamiento o de red, Estas tareas se describen en Sun Cluster 3.0-3.1 Hardware Administration Manual for Solaris OS.
La mayoría de las tareas de administración de Sun Cluster pueden efectuarse con el clúster operativo, con lo que se limita el impacto sobre su funcionamiento a un único nodo. En el caso de procedimientos que requieran parar por completo el clúster, prográmelos para las horas de inactividad a fin de minimizar su impacto sobre el sistema. Si tiene previsto parar el clúster o un nodo de éste, notifíquelo a sus usuarios con antelación.
Las siguientes funciones del sistema operativo Solaris no se admiten en la configuración de Sun Cluster:
No habilite o deshabilite los siguientes servicios de Sun Cluster mediante la interfaz de administración de Service Management Facility (SMF) de Solaris 10.
Servicio de Sun Cluster |
FMRI |
pnm |
svc:/system/cluster/pnm:predeterminado |
cl_event |
svc:/system/cluster/cl_event:predeterminado |
cl_eventlog |
svc:/system/cluster/cl_eventlog:predeterminado |
rpc_pmf |
svc:/system/cluster/rpc_pmf:predeterminado |
rpc_fed |
svc:/system/cluster/rpc_fed:predeterminado |
rgm |
svc:/system/cluster/rgm:predeterminado |
scdpm |
svc:/system/cluster/scdpm:predeterminado |
cl_ccra |
svc:/system/cluster/cl_ccra:predeterminado |
scsymon_srv |
svc:/system/cluster/scsymon_srv:predeterminado |
spm |
svc:/system/cluster/spm:predeterminado |
cl_svc_cluster_milestone |
svc:/system/cluster/cl_svc_cluster_milestone:predeterminado |
cl_svc_enable |
svc:/system/cluster/cl_svc_enable:predeterminado |
network-multipathing |
svc:/system/cluster/network-multipathing |
Puede realizar tareas administrativas en Sun Cluster mediante la interfaz gráfica de usuario (GUI) o la línea de comandos. En la sección siguiente se ofrece información general sobre ambas.
Sun Cluster admite herramientas de interfaz gráfica de usuario (GUI) que pueden utilizarse para efectuar diversas tareas administrativas en el clúster. Estas herramientas son SunPlexTM Manager y, si se está usando Sun Cluster en un sistema basado en la plataforma SPARC, Sun Management Center. Consulte el Capítulo 10, Administración de Sun Cluster con las interfaces gráficas de usuario para obtener más información y conocer los procedimientos de configuración de SunPlex Manager y Sun Management Center. Si desea información específica acerca del uso de estas herramientas, consulte la ayuda en línea correspondiente a cada una de ellas.
La mayoría de las tareas de administración de Sun Cluster se pueden efectuar de forma interactiva mediante la utilidad scsetup(1M) utility. Siempre que sea posible, en los procedimientos de administración de esta guía se utiliza el comando scsetup.
La utilidad scsetup permite administrar los siguientes elementos del menú principal.
Quórum
Grupos de recursos
Interconexión del clúster
Grupos de dispositivos y volúmenes
Nombres de host privados
Nuevos nodos
Otras propiedades del clúster
La utilidad scsetup permite administrar los siguientes elementos del menú Grupo de recursos.
Crear un grupo de recursos
Agregar un recurso de red a un grupo de recursos
Agregar un recurso de servicio de datos a un grupo de recursos
Poner en línea/fuera de línea o conmutar un grupo de recursos
Habilitar/inhabilitar un recurso
Cambiar las propiedades de un grupo de recursos
Cambiar las propiedades de un recurso
Eliminar un recurso de un grupo de recursos
Suprimir un grupo de recursos
Borrar el indicador de error stop_failed de un recurso
La Tabla 1-1 muestra otros comandos para administrar Sun Cluster. Consulte las páginas de comando man para obtener información más detallada.
Tabla 1–1 Comandos de la interfaz de línea de comandos de Sun Cluster
Comando |
Descripción |
---|---|
Inicia el acceso al clúster desde una consola remota. |
|
Se utiliza para conmutar las direcciones IP de un adaptador a otro dentro de un grupo de Ruta múltiple de red IP. |
|
Comprueba y valida la configuración de Sun Cluster para garantizar la funcionalidad de la configuración más básica de un clúster. |
|
Actualiza una configuración de Sun Cluster. La opción -p muestra la información de configuración del clúster. |
|
Proporciona acceso de administración a la configuración del ID del dispositivo. |
|
Ejecuta la secuencia de administración del espacio de nombres de dispositivo global. |
|
Instala y configura el software de Sun Cluster. El comando se puede ejecutar de forma interactiva o no interactiva. La opción -p muestra información, tanto de la versión y como de la versión de paquete del software de Sun Cluster. |
|
Gestiona el registro de los tipos de recursos, la creación de grupos de recursos y la activación de recursos dentro de un grupo de recursos. La opción -p muestra información sobre los recursos, grupos de recursos y tipos de recursos instalados. Nota – Los nombres de tipos, grupos y propiedades de recursos no distinguen entre mayúsculas y minúsculas dentro del comando scrgadm. |
|
Ejecuta la utilidad de configuración interactiva del clúster, que genera el comando scconf y sus diversas opciones. |
|
Apaga todo el clúster. |
|
Ofrece una instantánea del estado del clúster. |
|
Efectúa cambios que afectan al control de nodos y el estado de los grupos de recursos y grupos de dispositivos de disco. |
Asimismo, para administrar la parte del gestor de volúmenes de Sun Cluster puede utilizar comandos que dependen del gestor de volúmenes específico utilizado en el clúster, ya sea Solstice DiskSuiteTM, VERITAS Volume Manager o Solaris Volume ManagerTM.
En esta sección se describen los procesos de preparación para la administración del clúster.
Documente los aspectos del hardware exclusivos de su instalación a medida que la configuración de Sun Cluster crezca. Consulte la documentación del hardware al cambiar o modernizar el clúster; de este modo ahorrará trabajo de administración. El etiquetado de los cables y conexiones entre los diversos componentes del clúster puede también facilitar la administración.
Para reducir el tiempo empleado por los proveedores de asistencia en el mantenimiento del clúster, mantenga un registro de la configuración original y de los cambios subsiguientes.
Para la administración del clúster activo, puede utilizar una estación de trabajo SPARC exclusiva, denominada consola de administración. en la que, por norma general, se instala el Panel de control del clúster (CCP) y las herramientas de la interfaz gráfica (GUI). Para obtener más información sobre CCP, consulte Cómo iniciar una sesión en Sun Cluster de forma remota. Para obtener instrucciones sobre cómo instalar el módulo Panel de control del clúster para Sun Management Center y las herramientas SunPlex Manager GUI, consulte Software Sun Cluster: Guía de instalación para el sistema operativo Solaris.
La consola de administración normalmente no es un nodo del clúster; Se utiliza para acceder a los nodos del clúster de forma remota, ya sea a través de la red pública ya sea mediante un concentrador de terminales ubicado en la red.
Si el clúster SPARC contiene un servidor Sun EnterpriseTM 10000, deberá iniciar la sesión desde la consola de administración en el System Service Processor (SSP). Conéctese mediante el comando netcon.1M. El método predeterminado para que netcon se conecte con un dominio de Sun Enterprise 10000 es la interfaz de red. Si ésta no está accesible, puede utilizar el comando netcon en modalidad “exclusiva” mediante la opción -f. También puede enviar ~* durante una sesión normal de netcon. Cualquiera de estas soluciones ofrece la opción de cambiar a la interfaz serie en el caso de que la red quede inaccesible.
Sun Cluster no necesita una consola de administración, pero su uso proporciona las siguientes ventajas:
Permite la gestión centralizada del clúster ya que agrupa herramientas de consola y gestión en la misma máquina
Permite a Enterprise Services o de su proveedor de asistencia una solución más rápida de los problemas
Realice a menudo copias de seguridad del clúster. A pesar de que Sun Cluster ofrece un entorno de alta disponibilidad (HA), con duplicidad de copias de los datos en los dispositivos de almacenamiento, Sun Cluster no está pensado para reemplazar las copias de seguridad regulares. Sun Cluster puede reponerse de muchos fallos, pero no protege de errores de usuarios o de programas, ni de fallos catastróficos. Por consiguiente, deberá disponer de un procedimiento de copia de seguridad para protegerse contra las pérdidas de datos.
Como parte del proceso de copia de seguridad deberá incluir la información siguiente:
Todas las particiones del sistema de archivos
Todos los datos de las bases de datos, si utiliza servicios de datos DBMS
Información de particiones de todos los discos del clúster
El archivo md.tab, si utiliza Solstice DiskSuite/Solaris Volume Manager como gestor de volúmenes
Tabla 1–2 proporciona un punto de partida para administrar el clúster.
Tabla 1–2 Herramientas de administración de Sun Cluster 3.1 4/04
Tarea |
Herramienta |
Documentación |
---|---|---|
Iniciar una sesión remota en el clúster |
Utilice el comando ccp para ejecutar el Panel de control del clúster (CCP). A continuación, seleccione uno de los siguientes iconos: cconsole(1M), crlogin(1M), or ctelnet(1M). | |
Configurar el clúster de forma interactiva |
Ejecute la utilidad scsetup(1M). | |
Mostrar información de la versión de Sun Cluster |
Utilice el comando scinstall(1M) con las opciones -p o -pv. | |
Mostrar los recursos, grupos de recursos y tipos de recursos instalados Nota – Los nombres de tipos, grupos y propiedades de recursos no distinguen entre mayúsculas y minúsculas dentro del comando scrgadm. |
Utilice el comando scrgadm(1M) -p. |
Cómo mostrar los tipos de recursos, grupos de recursos y recursos configurados |
Supervisar de forma gráfica los componentes del clúster |
Utilice SunPlex Manager. |
Ayuda en línea de SunPlex Manager |
Administrar gráficamente ciertos componentes del clúster |
Utilice SunPlex Manager o el módulo Sun Cluster para Sun Management Center (disponible con Sun Cluster sólo en los sistemas basados en la plataforma SPARC). |
Ayuda en línea de SunPlex Manager o del módulo Sun Cluster para Sun Management Center |
Comprobar el estado de los componentes del clúster |
Utilice el comando scstat(1M). | |
Comprobar el estado de los grupos de ruta múltiple de red IP en la red pública |
Utilice el comando scstat(1M) con la opción -i. | |
Ver la configuración del clúster |
Utilice el comando scconf(1M) -p. | |
Comprobar los puntos de montaje globales |
Utilice el comando sccheck(1M). | |
Consultar los mensajes del sistema de Sun Cluster |
Examine el archivo /var/adm/messages. |
Viewing System Messages de System Administration Guide: Advanced Administration en System Administration:Advanced Administration |
Supervisar el estado de Solstice DiskSuite |
Utilice el comando metastat. |
Documentación de Solstice DiskSuite/Solaris Volume Manager |
Supervisar el estado de VERITAS Volume Manager, si ejecuta Solaris 8 |
Utilice los comandos vxstat o vxva. |
Documentación de VERITAS Volume Manager |
Supervisar el estado de Solaris Volume Manager, si ejecuta Solaris 9 |
Utilice el comando svmstat |
El panel de control del clúster (CCP) proporciona una plataforma de ejecución para las herramientas cconsole(1M), crlogin(1M) y ctelnet(1M). Las tres inician una conexión de varias ventanas con un conjunto de nodos especificados. Esta conexión incluye una ventana de sistema para cada uno de los nodos especificados y una ventana común. La entrada en ésta se envía a cada una de aquéllas, lo que permite ejecutar comandos de forma simultánea en todos los nodos del clúster. Consulte las páginas de comando man ccp(1M) y cconsole(1M) para obtener más información.
Compruebe que se cumplan los requisitos siguientes antes de iniciar el CCP.
Instale el paquete SUNWccon en la consola de administración.
Compruebe que la variable PATH de la consola de administración contenga el directorio de herramientas de Sun Cluster, /opt/SUNWcluster/bin y /usr/cluster/bin. Se puede especificar una ubicación alternativa para el directorio de herramientas definiendo un valor para la variable de entorno $CLUSTER_HOME.
Configure los archivos clusters, serialports y nsswitch.conf en el caso de que utilice un concentrador de terminales. Aquéllos pueden ser archivos /etc o bases de datos NIS/NIS+. Consulte clusters(4) y serialports(4) para obtener más información.
Averigüe si dispone de una plataforma Servidor Sun Enterprise 10000.
De lo contrario, continúe con el Paso 3.
En caso afirmativo, inicie la sesión en el System Service Processor (SSP) y conecte mediante el comando netcon. Una vez efectuada la conexión, escriba Mayús~@ para desbloquear la consola y obtener acceso de escritura.
Inicie la plataforma de ejecución CCP
En la consola de administración, escriba el comando siguiente:
# ccp clustername |
Se mostrará la plataforma de ejecución CCP.
Para iniciar una sesión remota con el clúster, haga clic en el icono de cconsole, crlogin o ctelnet en la plataforma de ejecución CCP.
También puede iniciar sesiones de cconsole, crlogin o ctelnet en la línea de comandos.
La utilidad scsetup(1M) permite configurar de forma interactiva el quórum, los grupos de recursos, el transporte del clúster, el nombre de host privado, el grupo de dispositivos y las nuevas opciones de nodo del clúster.
Conviértase en usuario root en cualquiera de los nodos del clúster.
Ejecute la utilidad scsetup.
# scsetup |
Se mostrará el Menú principal.
Seleccione la opción de configuración en el menú. Siga las instrucciones en pantalla para efectuar las tareas.
Para obtener más información consulte la ayuda en línea de scsetup.
No es necesario haber iniciado sesión como usuario root para llevar a cabo este procedimiento.
Escriba el comando siguiente:
% showrev -p |
Las versiones de actualización de Sun Cluster se identifican por el número de revisión del producto principal más la versión de actualización.
El siguiente ejemplo muestra información sobre la modificación 110648-05.
% showrev -p | grep 110648 Patch: 110648-05 Obsoletes: Requires: Incompatibles: Packages: |
No es necesario haber iniciado sesión como usuario root para llevar a cabo este procedimiento.
Escriba el comando siguiente:
% scinstall -pv |
Este comando muestra el número de modificación de Sun Cluster y las cadenas de versión de todos los paquetes de Sun Cluster.
En el ejemplo siguiente se muestra la información de la versión del clúster y de todos los paquetes.
% scinstall -pv SunCluster 3.1 SUNWscr: 3.1.0,REV=2000.10.01.01.00 SUNWscdev: 3.1.0,REV=2000.10.01.01.00 SUNWscu: 3.1.0,REV=2000.10.01.01.00 SUNWscman: 3.1.0,REV=2000.10.01.01.00 SUNWscsal: 3.1.0,REV=2000.10.01.01.00 SUNWscsam: 3.1.0,REV=2000.10.01.01.00 SUNWscvm: 3.1.0,REV=2000.10.01.01.00 SUNWmdm: 4.2.1,REV=2000.08.08.10.01 |
Este procedimiento se puede efectuar también mediante la GUI de SunPlex Manager. Consulte el Capítulo 10, Administración de Sun Cluster con las interfaces gráficas de usuario . Para obtener más información consulte la ayuda en línea de SunPlex Manager.
No es necesario iniciar la sesión como usuario root para llevar a cabo este procedimiento.
Mostrar los tipos de recursos, grupos de recursos y recursos configurados en el clúster.
% scrgadm -p |
En el ejemplo siguiente se muestran los tipos de recursos (RT Name), grupos de recursos (RG Name) y recursos (RS Name ) configurados para el clúster schost.
% scrgadm -p RT Name: SUNW.SharedAddress RT Description: HA Shared Address Resource Type RT Name: SUNW.LogicalHostname RT Description: Logical Hostname Resource Type RG Name: schost-sa-1 RG Description: RS Name: schost-1 RS Description: RS Type: SUNW.SharedAddress RS Resource Group: schost-sa-1 RG Name: schost-lh-1 RG Description: RS Name: schost-3 RS Description: RS Type: SUNW.LogicalHostname RS Resource Group: schost-lh-1 |
Este procedimiento se puede efectuar también mediante la GUI de SunPlex Manager. Para obtener más información consulte la ayuda en línea de SunPlex Manager.
No es necesario iniciar la sesión como usuario root para llevar a cabo este procedimiento.
Comprobar el estado de los componentes del clúster.
% scstat -p |
En el ejemplo siguiente se proporciona una información de estado de muestra de los componentes del clúster devuelta por scstat(1M).
% scstat -p -- Cluster Nodes -- Node name Status --------- ------ Cluster node: phys-schost-1 Online Cluster node: phys-schost-2 Online Cluster node: phys-schost-3 Online Cluster node: phys-schost-4 Online ------------------------------------------------------------------ -- Cluster Transport Paths -- Endpoint Endpoint Status -------- -------- ------ Transport path: phys-schost-1:qfe1 phys-schost-4:qfe1 Path online Transport path: phys-schost-1:hme1 phys-schost-4:hme1 Path online ... ------------------------------------------------------------------ -- Quorum Summary -- Quorum votes possible: 6 Quorum votes needed: 4 Quorum votes present: 6 -- Quorum Votes by Node -- Node Name Present Possible Status --------- ------- -------- ------ Node votes: phys-schost-1 1 1 Online Node votes: phys-schost-2 1 1 Online ... -- Quorum Votes by Device -- Device Name Present Possible Status ----------- ------- -------- ------ Device votes: /dev/did/rdsk/d2s2 1 1 Online Device votes: /dev/did/rdsk/d8s2 1 1 Online ... -- Device Group Servers -- Device Group Primary Secondary ------------ ------- --------- Device group servers: rmt/1 - - Device group servers: rmt/2 - - Device group servers: schost-1 phys-schost-2 phys-schost-1 Device group servers: schost-3 - - -- Device Group Status -- Device Group Status ------------ ------ Device group status: rmt/1 Offline Device group status: rmt/2 Offline Device group status: schost-1 Online Device group status: schost-3 Offline ------------------------------------------------------------------ -- Resource Groups and Resources -- Group Name Resources ---------- --------- Resources: test-rg test_1 Resources: real-property-rg - Resources: failover-rg - Resources: descript-rg-1 - ... -- Resource Groups -- Group Name Node Name State ---------- --------- ----- Group: test-rg phys-schost-1 Offline Group: test-rg phys-schost-2 Offline ... -- Resources -- Resource Name Node Name State Status Message ------------- --------- ----- -------------- Resource: test_1 phys-schost-1 Offline Offline Resource: test_1 phys-schost-2 Offline Offline ----------------------------------------------------------------- -- IPMP Groups -- Node Name Group Status Adapter Status --------- ----- ------ ------- ------ IPMP Group: phys-schost-1 sc_ipmp0 Online qfe1 Online IPMP Group: phys-schost-2 sc_ipmp0 Online qfe1 Online ------------------------------------------------------------------ |
Este procedimiento se puede efectuar también mediante la GUI de SunPlex Manager. Para obtener más información consulte la ayuda en línea de SunPlex Manager.
No es necesario iniciar la sesión como usuario root para llevar a cabo este procedimiento.
Para comprobar el estado de los grupos de Ruta múltiple de red IP, utilice el comando scstat(1M).
Comprobar el estado de los componentes del clúster.
% scstat -i |
En el ejemplo siguiente se muestra un ejemplo de información del estado de los componentes del clúster devuelta por el comando scstat -i.
% scstat -i ----------------------------------------------------------------- -- IPMP Groups -- Node Name Group Status Adapter Status --------- ----- ------ ------- ------ IPMP Group: phys-schost-1 sc_ipmp1 Online qfe2 Online IPMP Group: phys-schost-1 sc_ipmp0 Online qfe1 Online IPMP Group: phys-schost-2 sc_ipmp1 Online qfe2 Online IPMP Group: phys-schost-2 sc_ipmp0 Online qfe1 Online ------------------------------------------------------------------ |
Este procedimiento se puede efectuar también mediante la GUI de SunPlex Manager. Para obtener más información consulte la ayuda en línea de SunPlex Manager.
No es necesario iniciar la sesión como usuario root para llevar a cabo este procedimiento.
Visualizar la configuración del clúster
% scconf -p |
Para mostrar más información con el comando scconf, utilice las opciones de descripción detallada. Consulte la página de comando man scconf(1M) para obtener más detalles.
En el ejemplo siguiente se muestra la configuración del clúster.
% scconf -p Cluster name: cluster-1 Cluster ID: 0x3908EE1C Cluster install mode: disabled Cluster private net: 172.16.0.0 Cluster private netmask: 192.168.0.0 Cluster new node authentication: unix Cluster new node list: <NULL - Allow any node> Cluster nodes: phys-schost-1 phys-schost-2 phys-schost-3 phys-schost-4 Cluster node name: phys-schost-1 Node ID: 1 Node enabled: yes Node private hostname: clusternode1-priv Node quorum vote count: 1 Node reservation key: 0x3908EE1C00000001 Node transport adapters: hme1 qfe1 qfe2 Node transport adapter: hme1 Adapter enabled: yes Adapter transport type: dlpi Adapter property: device_name=hme Adapter property: device_instance=1 Adapter property: dlpi_heartbeat_timeout=10000 ... Cluster transport junctions: hub0 hub1 hub2 Cluster transport junction: hub0 Junction enabled: yes Junction type: switch Junction port names: 1 2 3 4 ... Junction port: 1 Port enabled: yes Junction port: 2 Port enabled: yes ... Cluster transport cables Endpoint Endpoint State -------- -------- ----- Transport cable: phys-schost-1:hme1@0 hub0@1 Enabled Transport cable: phys-schost-1:qfe1@0 hub1@1 Enabled Transport cable: phys-schost-1:qfe2@0 hub2@1 Enabled Transport cable: phys-schost-2:hme1@0 hub0@2 Enabled ... Quorum devices: d2 d8 Quorum device name: d2 Quorum device votes: 1 Quorum device enabled: yes Quorum device name: /dev/did/rdsk/d2s2 Quorum device hosts (enabled): phys-schost-1 phys-schost-2 Quorum device hosts (disabled): ... Device group name: schost-3 Device group type: SVM Device group failback enabled: no Device group node list: phys-schost-3, phys-schost-4 Diskset name: schost-3 |
El comando sccheck(1M) ejecuta una serie de comprobaciones para validar la configuración básica necesaria para que un clúster funcione correctamente. Si todas las comprobaciones son satisfactorias, sccheck vuelve al indicador de shell. Si alguna de ellas no lo es, sccheck genera informes en el directorio especificado o en el directorio de salida predeterminado. Si ejecuta sccheck para más de un nodo, el comando generará un informe para cada nodo y otro para las comprobaciones multinodo.
El comando sccheck se ejecuta en dos fases: recopilación de datos y análisis. La primera puede ser un proceso prolongado, en función de la configuración del sistema. Se puede ejecutar sccheck en modo de descripción detallada mediante la opción -v1, que muestra mensajes de progreso, o mediante la opción -v2, que hace que sccheck muestre mensajes aún más detallados, especialmente durante la recopilación de datos.
Ejecute el comando sccheck después de efectuar procedimientos de administración que puedan modificar dispositivos, componentes de gestión de volúmenes o la configuración de Sun Cluster.
Conviértase en usuario root en cualquiera de los nodos del clúster.
% su |
Verifique la configuración del clúster.
# sccheck |
En el ejemplo siguiente se muestra la ejecución en modo detallado del comando sccheck en los nodos phys-schost-1 y phys-schost-2 con todas las comprobaciones satisfactorias.
# sccheck -v1 -h phys-schost-1,phys-schost-2 sccheck: Requesting explorer data and node report from phys-schost-1. sccheck: Requesting explorer data and node report from phys-schost-2. sccheck: phys-schost-1: Explorer finished. sccheck: phys-schost-1: Starting single-node checks. sccheck: phys-schost-1: Single-node checks finished. sccheck: phys-schost-2: Explorer finished. sccheck: phys-schost-2: Starting single-node checks. sccheck: phys-schost-2: Single-node checks finished. sccheck: Starting multi-node checks. sccheck: Multi-node checks finished # |
En el ejemplo siguiente se muestra que al nodo phys-schost-2 del clúster suncluster le falta el punto de montaje /global/phys-schost-1. Se generan informes en el directorio de salida /var/cluster/sccheck/myReports/.
# sccheck -v1 -h phys-schost-1,phys-schost-2 -o /var/cluster/sccheck/myReports sccheck: Requesting explorer data and node report from phys-schost-1. sccheck: Requesting explorer data and node report from phys-schost-2. sccheck: phys-schost-1: Explorer finished. sccheck: phys-schost-1: Starting single-node checks. sccheck: phys-schost-1: Single-node checks finished. sccheck: phys-schost-2: Explorer finished. sccheck: phys-schost-2: Starting single-node checks. sccheck: phys-schost-2: Single-node checks finished. sccheck: Starting multi-node checks. sccheck: Multi-node checks finished. sccheck: One or more checks failed. sccheck: The greatest severity of all check failures was 3 (HIGH). sccheck: Reports are in /var/cluster/sccheck/myReports. # # cat /var/cluster/sccheck/myReports/sccheck-results.suncluster.txt ... =================================================== = ANALYSIS DETAILS = =================================================== ------------------------------------ CHECK ID : 3065 SEVERITY : HIGH FAILURE : Global filesystem /etc/vfstab entries are not consistent across all Sun Cluster 3.x nodes. ANALYSIS : The global filesystem /etc/vfstab entries are not consistent across all nodes in this cluster. Analysis indicates: FileSystem '/global/phys-schost-1' is on 'phys-schost-1' but missing from 'phys-schost-2'. RECOMMEND: Ensure each node has the correct /etc/vfstab entry for the filesystem(s) in question. ... # |
El comando sccheck(1M) permite realizar comprobaciones que examinan el archivo /etc/vfstab en busca de errores de configuración con el sistema de archivos del clúster y sus puntos de montaje globales.
Ejecute sccheck después de efectuar cambios en la configuración del clúster que afecten a dispositivos o a componentes de gestión de volúmenes.
Conviértase en usuario root en cualquiera de los nodos del clúster.
% su |
Verifique la configuración del clúster.
# sccheck |
En el ejemplo siguiente se muestra que al nodo phys-schost-2 del clúster suncluster le falta el punto de montaje /global/schost-1. Los informes generados se envían al directorio de salida /var/cluster/sccheck/myReports/.
# sccheck -v1 -h phys-schost-1,phys-schost-2 -o /var/cluster/sccheck/myReports sccheck: Requesting explorer data and node report from phys-schost-1. sccheck: Requesting explorer data and node report from phys-schost-2. sccheck: phys-schost-1: Explorer finished. sccheck: phys-schost-1: Starting single-node checks. sccheck: phys-schost-1: Single-node checks finished. sccheck: phys-schost-2: Explorer finished. sccheck: phys-schost-2: Starting single-node checks. sccheck: phys-schost-2: Single-node checks finished. sccheck: Starting multi-node checks. sccheck: Multi-node checks finished. sccheck: One or more checks failed. sccheck: The greatest severity of all check failures was 3 (HIGH). sccheck: Reports are in /var/cluster/sccheck/myReports. # # cat /var/cluster/sccheck/myReports/sccheck-results.suncluster.txt ... =================================================== = ANALYSIS DETAILS = =================================================== ------------------------------------ CHECK ID : 3065 SEVERITY : HIGH FAILURE : Global filesystem /etc/vfstab entries are not consistent across all Sun Cluster 3.x nodes. ANALYSIS : The global filesystem /etc/vfstab entries are not consistent across all nodes in this cluster. Analysis indicates: FileSystem '/global/phys-schost-1' is on 'phys-schost-1' but missing from 'phys-schost-2'. RECOMMEND: Ensure each node has the correct /etc/vfstab entry for the filesystem(s) in question. ... # # cat /var/cluster/sccheck/myReports/sccheck-results.phys-schost-1.txt ... =================================================== = ANALYSIS DETAILS = =================================================== ------------------------------------ CHECK ID : 1398 SEVERITY : HIGH FAILURE : An unsupported server is being used as a Sun Cluster 3.x node. ANALYSIS : This server may not been qualified to be used as a Sun Cluster 3.x node. Only servers that have been qualified with Sun Cluster 3.x are supported as Sun Cluster 3.x nodes. RECOMMEND: Because the list of supported servers is always being updated, check with your Sun Microsystems representative to get the latest information on what servers are currently supported and only use a server that is supported with Sun Cluster 3.x. ... # |