| Omitir Vínculos de navegación | |
| Salir de la Vista de impresión | |
|
Guía de administración del sistema de Oracle Solaris Cluster |
1. Introducción a la administración de Oracle Solaris Cluster
Introducción a la administración de Oracle Solaris Cluster
Trabajo con un clúster de zona
Restricciones de las funciones del sistema operativo Oracle Solaris
Herramientas de administración
Preparación para administrar el clúster
Documentación de las configuraciones de hardware de Oracle Solaris Cluster
Uso de la consola de administración
Copia de seguridad del clúster
Procedimiento para empezar a administrar el clúster
Inicio de sesión remota en el clúster
Conexión segura a las consolas del clúster
Obtención de acceso a las utilidades de configuración del clúster
Visualización de la información de parches de Oracle Solaris Cluster
Visualización de la información de versión de Oracle Solaris Cluster
Visualización de tipos de recursos configurados, grupos de recursos y recursos
Comprobación del estado de los componentes del clúster
Comprobación del estado de la red pública
Visualización de la configuración del clúster
Validación de una configuración básica de clúster
Comprobación de los puntos de montaje globales
Visualización del contenido de los registros de comandos de Oracle Solaris Cluster
2. Oracle Solaris Cluster y RBAC
3. Cierre y arranque de un clúster
4. Métodos de replicación de datos
7. Administración de interconexiones de clústers y redes públicas
8. Adición y eliminación de un nodo
10. Configuración del control del uso de la CPU
11. Aplicación de parches en el software y el firmware de Oracle Solaris Cluster
12. Copias de seguridad y restauraciones de clústers
13. Administración de Oracle Solaris Cluster con las interfaces gráficas de usuario
La Tabla 1-2 proporciona un punto de partida para administrar el clúster.
Nota - Los comandos de Oracle Solaris Cluster que sólo ejecuta desde el nodo de votación del clúster global no son válidos para los clústeres de zona. Consulte la página de comando man de Oracle Solaris Cluster para obtener información sobre la validez del uso de un comando en zonas.
Tabla 1-2 Herramientas de administración de Oracle Solaris Cluster
|
El panel de control del clúster ofrece un launchpad para las herramientas cconsole, crlogin, cssh y ctelnet. Todas las herramientas inician una conexión de varias ventanas con un conjunto de nodos especificados. La conexión de varias ventanas consta de una ventana host para cada uno de los nodos indicados y una ventana común. Las entradas recibidas en la ventana común se envían a cada una de las ventanas del host; de este modo, se pueden ejecuta comandos simultáneamente en todos los nodos del clúster.
También puede iniciar sesiones de cconsole, crlogin, cssh o ctelnet desde la línea de comandos.
La utilidad cconsole emplea de forma predeterminada una conexión telnet con las consolas de los nodos. Para establecer conexiones de shell seguro con las consolas, en el menú Opciones de la ventana cconsole habilite la casilla de verificación Usar SSH. También puede indicar la opción -s al ejecutar el comando ccp o cconsole.
Para obtener más información, consulte las páginas de comando man ccp(1M) y cconsole(1M).
phys-schost# refleja un indicador de clúster global. Siga este procedimiento en un clúster global.
Este procedimiento proporciona las formas largas de los comandos Oracle Solaris Cluster. La mayoría de los comandos también tienen una forma corta. A excepción de las formas de los nombres de comandos, los comandos son idénticos.
Antes de iniciar el panel de control del clúster, compruebe que se cumplan los requisitos siguientes:
Instale el paquete SUNWccon en la consola de administración.
Compruebe que la variable PATH de la consola de administración incluya los directorios de herramientas de Oracle Solaris Cluster, /opt/SUNWcluster/bin y /usr/cluster/bin. Puede indicar una ubicación alternativa para el directorio de herramientas si establece la variable de entorno $CLUSTER_HOME.
Configure el archivo clusters, el archivo serialports y el archivo nsswitch.conf si utiliza un concentrador de terminales. Los archivos pueden ser archivos /etc, o bases de datos NIS o NIS+. Consulte las páginas de comando man clusters(4) y serialports(4) si desea obtener más información.
phys-schost# ccp clustername
Se muestra el launchpad del panel de control del clúster.
Lleve a cabo este procedimiento para establecer conexiones de shell seguro con las consolas de los nodos del clúster.
Configure los archivos clusters, serialports y nsswitch.conf si utiliza un concentrador de terminales. Los archivos pueden ser archivos /etc, o bases de datos NIS o NIS+.
Nota - En el archivo serialports, asigne el número de puerto que se va a utilizar para la conexión segura a cada dispositivo con acceso a la consola. El número de puerto predeterminado para la conexión con shell seguro es el 22.
Si desea obtener más información, consulte las páginas de comando man clusters(4) y serialports(4).
# cconsole -s [-l username] [-p ssh-port]
Habilita la conexión con shell seguro.
Especifica el nombre de usuario para las conexiones remotas. Si la opción - l no está indicada, se utiliza el nombre del usuario que ejecutó la utilidad cconsole .
Indica el número de puerto que se usa para el shell seguro. Si no se indica la opción -p, de forma predeterminada se utiliza el puerto número 22 para las conexiones seguras.
La utilidad clsetup permite configurar de forma interactiva el quórum, los grupos de recursos, el transporte del clúster, los nombres de host privados, los grupos de dispositivos y las nuevas opciones de nodos del clúster global. La utilidad clzonecluster realiza tareas de configuración similares para los clústers de zona. Si desea más información, consulte las páginas de comando man clsetup(1CL) y clzonecluster(1CL).
phys-schost# refleja un indicador de clúster global. Siga este procedimiento en un clúster global.
Este procedimiento proporciona las formas largas de los comandos Oracle Solaris Cluster. La mayoría de los comandos también tienen una forma corta. A excepción de las formas de los nombres de comandos, los comandos son idénticos.
phys-schost# clsetup
phys-schost# clsetup
Aparece el menú principal.
phys-schost# clzonecluster configure sczone
Con la opción siguiente puede ver las acciones disponibles en la utilidad:
clzc:sczone> ?
Consulte la ayuda en línea de clsetup o clzonecluster para obtener más información.
Para realizar este procedimiento no es necesario iniciar sesión como superusuario.
phys-schost# refleja un indicador de clúster global. Siga este procedimiento en un clúster global.
Este procedimiento proporciona las formas largas de los comandos Oracle Solaris Cluster. La mayoría de los comandos también tienen una forma corta. A excepción de las formas de los nombres de comandos, los comandos son idénticos.
phys-schost# showrev -p
Las versiones de las actualizaciones de Oracle Solaris Cluster se identifican mediante el número de parche del producto principal y la versión de la actualización.
Ejemplo 1-1 Visualización de la información sobre los parches de Oracle Solaris Cluster
En el ejemplo siguiente se muestra información sobre el parche 110648-05.
phys-schost# showrev -p | grep 110648 Patch: 110648-05 Obsoletes: Requires: Incompatibles: Packages:
Para realizar este procedimiento no es necesario iniciar sesión como superusuario. Siga todos los pasos de este procedimiento desde un nodo del clúster global.
phys-schost# refleja un indicador de clúster global. Siga este procedimiento en un clúster global.
Este procedimiento proporciona las formas largas de los comandos Oracle Solaris Cluster. La mayoría de los comandos también tienen una forma corta. A excepción de las formas de los nombres de comandos, los comandos son idénticos.
phys-schost# clnode show-rev -v -node
Este comando muestra el número de versión y las cadenas de caracteres de versión de todos los paquetes de Oracle Solaris Cluster.
Ejemplo 1-2 Visualización de la información de versión de Oracle Solaris Cluster
El ejemplo siguiente muestra la información de versión del clúster y de versión de todos los paquetes.
phys-schost# clnode show-rev 3.2 phys-schost#% clnode show-rev -v Oracle Solaris Cluster 3.3 for Solaris 10 sparc SUNWscu: 3.3.0,REV=2010.06.14.03.44 SUNWsccomu: 3.3.0,REV=2010.06.14.03.44 SUNWsczr: 3.3.0,REV=2010.06.14.03.44 SUNWsccomzu: 3.3.0,REV=2010.06.14.03.44 SUNWsczu: 3.3.0,REV=2010.06.14.03.44 SUNWscsckr: 3.3.0,REV=2010.06.14.03.44 SUNWscscku: 3.3.0,REV=2010.06.14.03.44 SUNWscr: 3.3.0,REV=2010.06.14.03.44 SUNWscrtlh: 3.3.0,REV=2010.06.14.03.44 SUNWscnmr: 3.3.0,REV=2010.06.14.03.44 SUNWscnmu: 3.3.0,REV=2010.06.14.03.44 SUNWscdev: 3.3.0,REV=2010.06.14.03.44 SUNWscgds: 3.3.0,REV=2010.06.14.03.44 SUNWscsmf: 3.3.0,REV=2010.06.14.03.44 SUNWscman: 3.3.0,REV=2010.05.21.18.40 SUNWscsal: 3.3.0,REV=2010.06.14.03.44 SUNWscsam: 3.3.0,REV=2010.06.14.03.44 SUNWscvm: 3.3.0,REV=2010.06.14.03.44 SUNWmdmr: 3.3.0,REV=2010.06.14.03.44 SUNWmdmu: 3.3.0,REV=2010.06.14.03.44 SUNWscmasa: 3.3.0,REV=2010.06.14.03.44 SUNWscmasar: 3.3.0,REV=2010.06.14.03.44 SUNWscmasasen: 3.3.0,REV=2010.06.14.03.44 SUNWscmasazu: 3.3.0,REV=2010.06.14.03.44 SUNWscmasau: 3.3.0,REV=2010.06.14.03.44 SUNWscmautil: 3.3.0,REV=2010.06.14.03.44 SUNWscmautilr: 3.3.0,REV=2010.06.14.03.44 SUNWjfreechart: 3.3.0,REV=2010.06.14.03.44 SUNWscspmr: 3.3.0,REV=2010.06.14.03.44 SUNWscspmu: 3.3.0,REV=2010.06.14.03.44 SUNWscderby: 3.3.0,REV=2010.06.14.03.44 SUNWsctelemetry: 3.3.0,REV=2010.06.14.03.44 SUNWscgrepavs: 3.2.3,REV=2009.10.23.12.12 SUNWscgrepsrdf: 3.2.3,REV=2009.10.23.12.12 SUNWscgreptc: 3.2.3,REV=2009.10.23.12.12 SUNWscghb: 3.2.3,REV=2009.10.23.12.12 SUNWscgctl: 3.2.3,REV=2009.10.23.12.12 SUNWscims: 6.0,REV=2003.10.29 SUNWscics: 6.0,REV=2003.11.14 SUNWscapc: 3.2.0,REV=2006.12.06.18.32 SUNWscdns: 3.2.0,REV=2006.12.06.18.32 SUNWschadb: 3.2.0,REV=2006.12.06.18.32 SUNWschtt: 3.2.0,REV=2006.12.06.18.32 SUNWscs1as: 3.2.0,REV=2006.12.06.18.32 SUNWsckrb5: 3.2.0,REV=2006.12.06.18.32 SUNWscnfs: 3.2.0,REV=2006.12.06.18.32 SUNWscor: 3.2.0,REV=2006.12.06.18.32 SUNWscs1mq: 3.2.0,REV=2006.12.06.18.32 SUNWscsap: 3.2.0,REV=2006.12.06.18.32 SUNWsclc: 3.2.0,REV=2006.12.06.18.32 SUNWscsapdb: 3.2.0,REV=2006.12.06.18.32 SUNWscsapenq: 3.2.0,REV=2006.12.06.18.32 SUNWscsaprepl: 3.2.0,REV=2006.12.06.18.32 SUNWscsapscs: 3.2.0,REV=2006.12.06.18.32 SUNWscsapwebas: 3.2.0,REV=2006.12.06.18.32 SUNWscsbl: 3.2.0,REV=2006.12.06.18.32 SUNWscsyb: 3.2.0,REV=2006.12.06.18.32 SUNWscwls: 3.2.0,REV=2006.12.06.18.32 SUNWsc9ias: 3.2.0,REV=2006.12.06.18.32 SUNWscPostgreSQL: 3.2.0,REV=2006.12.06.18.32 SUNWsczone: 3.2.0,REV=2006.12.06.18.32 SUNWscdhc: 3.2.0,REV=2006.12.06.18.32 SUNWscebs: 3.2.0,REV=2006.12.06.18.32 SUNWscmqi: 3.2.0,REV=2006.12.06.18.32 SUNWscmqs: 3.2.0,REV=2006.12.06.18.32 SUNWscmys: 3.2.0,REV=2006.12.06.18.32 SUNWscsge: 3.2.0,REV=2006.12.06.18.32 SUNWscsaa: 3.2.0,REV=2006.12.06.18.32 SUNWscsag: 3.2.0,REV=2006.12.06.18.32 SUNWscsmb: 3.2.0,REV=2006.12.06.18.32 SUNWscsps: 3.2.0,REV=2006.12.06.18.32 SUNWsctomcat: 3.2.0,REV=2006.12.06.18.32
Este procedimiento también puede efectuarse con la GUI de Oracle Solaris Cluster Manager. Consulte el Capítulo 13Administración de Oracle Solaris Cluster con las interfaces gráficas de usuario, o consulte la ayuda en línea de Oracle Solaris Cluster Manager para obtener más información.
phys-schost# refleja un indicador de clúster global. Siga este procedimiento en un clúster global.
Este procedimiento proporciona las formas largas de los comandos Oracle Solaris Cluster. La mayoría de los comandos también tienen una forma corta. A excepción de las formas de los nombres de comandos, los comandos son idénticos.
Para utilizar subcomando, todos los usuarios necesitan la autorización RBAC solaris.cluster.read menos el superusuario.
phys-schost# cluster show -t resource,resourcetype,resourcegroup
Si desea obtener información sobre un determinado recurso, los grupos de recursos y los tipos de recursos, utilice el subcomando show con uno de los comandos siguientes:
resource
resource group
resourcetype
Ejemplo 1-3 Visualización de tipos de recursos, grupos de recursos y recursos configurados
En el ejemplo siguiente se muestran los tipos de recursos (RT Name), los grupos de recursos (RG Name) y los recursos (RS Name ) configurados para el clúster schost.
phys-schost# cluster show -t resource,resourcetype,resourcegroup
=== Registered Resource Types ===
Resource Type: SUNW.qfs
RT_description: SAM-QFS Agent on Oracle Solaris Cluster
RT_version: 3.1
API_version: 3
RT_basedir: /opt/SUNWsamfs/sc/bin
Single_instance: False
Proxy: False
Init_nodes: All potential masters
Installed_nodes: <All>
Failover: True
Pkglist: <NULL>
RT_system: False
=== Resource Groups and Resources ===
Resource Group: qfs-rg
RG_description: <NULL>
RG_mode: Failover
RG_state: Managed
Failback: False
Nodelist: phys-schost-2 phys-schost-1
--- Resources for Group qfs-rg ---
Resource: qfs-res
Type: SUNW.qfs
Type_version: 3.1
Group: qfs-rg
R_description:
Resource_project_name: default
Enabled{phys-schost-2}: True
Enabled{phys-schost-1}: True
Monitored{phys-schost-2}: True
Monitored{phys-schost-1}: True
Este procedimiento también puede efectuarse con la GUI de Oracle Solaris Cluster Manager. Consulte la ayuda en línea de Oracle Solaris Cluster Manager para obtener más información.
Nota - El comando cluster status también muestra el estado de un clúster de zona.
phys-schost# refleja un indicador de clúster global. Siga este procedimiento en un clúster global.
Este procedimiento proporciona las formas largas de los comandos Oracle Solaris Cluster. La mayoría de los comandos también tienen una forma corta. A excepción de las formas de los nombres de comandos, los comandos son idénticos.
Todos los usuarios necesitan la autorización RBAC solaris.cluster.read para utilizar el subcomando status menos el superusuario.
phys-schost# cluster status
Ejemplo 1-4 Comprobación del estado de los componentes del clúster
El ejemplo siguiente es una muestra de la información del estado de los componentes del clúster devuelta por cluster(1CL) status.
phys-schost# cluster status
=== Cluster Nodes ===
--- Node Status ---
Node Name Status
--------- ------
phys-schost-1 Online
phys-schost-2 Online
=== Cluster Transport Paths ===
Endpoint1 Endpoint2 Status
--------- --------- ------
phys-schost-1:qfe1 phys-schost-4:qfe1 Path online
phys-schost-1:hme1 phys-schost-4:hme1 Path online
=== Cluster Quorum ===
--- Quorum Votes Summary ---
Needed Present Possible
------ ------- --------
3 3 4
--- Quorum Votes by Node ---
Node Name Present Possible Status
--------- ------- -------- ------
phys-schost-1 1 1 Online
phys-schost-2 1 1 Online
--- Quorum Votes by Device ---
Device Name Present Possible Status
----------- ------- -------- ------
/dev/did/rdsk/d2s2 1 1 Online
/dev/did/rdsk/d8s2 0 1 Offline
=== Cluster Device Groups ===
--- Device Group Status ---
Device Group Name Primary Secondary Status
----------------- ------- --------- ------
schost-2 phys-schost-2 - Degraded
--- Spare, Inactive, and In Transition Nodes ---
Device Group Name Spare Nodes Inactive Nodes In Transistion Nodes
----------------- ----------- -------------- --------------------
schost-2 - - -
=== Cluster Resource Groups ===
Group Name Node Name Suspended Status
---------- --------- --------- ------
test-rg phys-schost-1 No Offline
phys-schost-2 No Online
test-rg phys-schost-1 No Offline
phys-schost-2 No Error--stop failed
test-rg phys-schost-1 No Online
phys-schost-2 No Online
=== Cluster Resources ===
Resource Name Node Name Status Message
------------- --------- ------ -------
test_1 phys-schost-1 Offline Offline
phys-schost-2 Online Online
test_1 phys-schost-1 Offline Offline
phys-schost-2 Stop failed Faulted
test_1 phys-schost-1 Online Online
phys-schost-2 Online Online
Device Instance Node Status
--------------- ---- ------
/dev/did/rdsk/d2 phys-schost-1 Ok
/dev/did/rdsk/d3 phys-schost-1 Ok
phys-schost-2 Ok
/dev/did/rdsk/d4 phys-schost-1 Ok
phys-schost-2 Ok
/dev/did/rdsk/d6 phys-schost-2 Ok
=== Zone Clusters ===
--- Zone Cluster Status ---
Name Node Name Zone HostName Status Zone Status
---- --------- ------------- ------ -----------
sczone schost-1 sczone-1 Online Running
schost-2 sczone-2 Online Running
Este procedimiento también puede efectuarse con la GUI de Oracle Solaris Cluster Manager. Consulte la ayuda en línea de Oracle Solaris Cluster Manager para obtener más información.
phys-schost# refleja un indicador de clúster global. Siga este procedimiento en un clúster global.
Este procedimiento proporciona las formas largas de los comandos Oracle Solaris Cluster. La mayoría de los comandos también tienen una forma corta. A excepción de las formas de los nombres de comandos, los comandos son idénticos.
Para comprobar el estado de los grupos de varias rutas de red IP, utilice el comando clnode(1CL) con el subcomando status.
Todos los usuarios necesitan la autorización RBAC solaris.cluster.read utilizar este subcomando menos el superusuario.
phys-schost# clnode status -m
Ejemplo 1-5 Comprobación del estado de la red pública
En el ejemplo siguiente se puede ver una muestra de la información del estado de los componentes del clúster devuelta por el comando clnode status.
% clnode status -m --- Node IPMP Group Status --- Node Name Group Name Status Adapter Status --------- ---------- ------ ------- ------ phys-schost-1 test-rg Online qfe1 Online phys-schost-2 test-rg Online qfe1 Online
Este procedimiento también puede efectuarse con la GUI de Oracle Solaris Cluster Manager. Consulte la ayuda en línea de Oracle Solaris Cluster Manager para obtener más información.
phys-schost# refleja un indicador de clúster global. Siga este procedimiento en un clúster global.
Este procedimiento proporciona las formas largas de los comandos Oracle Solaris Cluster. La mayoría de los comandos también tienen una forma corta. A excepción de las formas de los nombres de comandos, los comandos son idénticos.
Todos los usuarios necesitan la autorización de RBAC solaris.cluster.read para utilizar el subcomando status menos el superusuario.
% cluster show
Al ejecutar el comando cluster show desde un nodo de votación de clúster global, se muestra información detallada sobre la configuración del clúster e información sobre los clústers de zona, si es que están configurados.
También puede usar el comando clzonecluster show para visualizar la información de configuración sólo de los clústers de zona. Entre las propiedades de un clúster de zona están el nombre, el tipo de IP, el arranque automático y la ruta de zona. El subcomando show se ejecuta dentro de un clúster de zona y se aplica sólo a ese clúster de zona. Al ejecutar el comando clzonecluster show desde un nodo del clúster de zona, sólo se recupera el estado de los objetos visibles en ese clúster de zona en concreto.
Para visualizar más información acerca del comando cluster, utilice las opciones para obtener más detalles. Si desea obtener más detalles, consulte la página de comando man cluster(1CL). Consulte la página de comando man clzonecluster(1CL) si desea obtener más información sobre clzonecluster .
Ejemplo 1-6 Visualización de la configuración del clúster global
En el ejemplo siguiente figura información de configuración sobre el clúster global. Si tiene configurado un clúster de zona, también se enumera la pertinente información.
phys-schost# cluster show
=== Cluster ===
Cluster Name: cluster-1
installmode: disabled
heartbeat_timeout: 10000
heartbeat_quantum: 1000
private_netaddr: 172.16.0.0
private_netmask: 255.255.248.0
max_nodes: 64
max_privatenets: 10
global_fencing: Unknown
Node List: phys-schost-1
Node Zones: phys_schost-2:za
=== Host Access Control ===
Cluster name: clustser-1
Allowed hosts: phys-schost-1, phys-schost-2:za
Authentication Protocol: sys
=== Cluster Nodes ===
Node Name: phys-schost-1
Node ID: 1
Type: cluster
Enabled: yes
privatehostname: clusternode1-priv
reboot_on_path_failure: disabled
globalzoneshares: 3
defaultpsetmin: 1
quorum_vote: 1
quorum_defaultvote: 1
quorum_resv_key: 0x43CB1E1800000001
Transport Adapter List: qfe3, hme0
--- Transport Adapters for phys-schost-1 ---
Transport Adapter: qfe3
Adapter State: Enabled
Adapter Transport Type: dlpi
Adapter Property(device_name): qfe
Adapter Property(device_instance): 3
Adapter Property(lazy_free): 1
Adapter Property(dlpi_heartbeat_timeout): 10000
Adapter Property(dlpi_heartbeat_quantum): 1000
Adapter Property(nw_bandwidth): 80
Adapter Property(bandwidth): 10
Adapter Property(ip_address): 172.16.1.1
Adapter Property(netmask): 255.255.255.128
Adapter Port Names: 0
Adapter Port State(0): Enabled
Transport Adapter: hme0
Adapter State: Enabled
Adapter Transport Type: dlpi
Adapter Property(device_name): hme
Adapter Property(device_instance): 0
Adapter Property(lazy_free): 0
Adapter Property(dlpi_heartbeat_timeout): 10000
Adapter Property(dlpi_heartbeat_quantum): 1000
Adapter Property(nw_bandwidth): 80
Adapter Property(bandwidth): 10
Adapter Property(ip_address): 172.16.0.129
Adapter Property(netmask): 255.255.255.128
Adapter Port Names: 0
Adapter Port State(0): Enabled
--- SNMP MIB Configuration on phys-schost-1 ---
SNMP MIB Name: Event
State: Disabled
Protocol: SNMPv2
--- SNMP Host Configuration on phys-schost-1 ---
--- SNMP User Configuration on phys-schost-1 ---
SNMP User Name: foo
Authentication Protocol: MD5
Default User: No
Node Name: phys-schost-2:za
Node ID: 2
Type: cluster
Enabled: yes
privatehostname: clusternode2-priv
reboot_on_path_failure: disabled
globalzoneshares: 1
defaultpsetmin: 2
quorum_vote: 1
quorum_defaultvote: 1
quorum_resv_key: 0x43CB1E1800000002
Transport Adapter List: hme0, qfe3
--- Transport Adapters for phys-schost-2 ---
Transport Adapter: hme0
Adapter State: Enabled
Adapter Transport Type: dlpi
Adapter Property(device_name): hme
Adapter Property(device_instance): 0
Adapter Property(lazy_free): 0
Adapter Property(dlpi_heartbeat_timeout): 10000
Adapter Property(dlpi_heartbeat_quantum): 1000
Adapter Property(nw_bandwidth): 80
Adapter Property(bandwidth): 10
Adapter Property(ip_address): 172.16.0.130
Adapter Property(netmask): 255.255.255.128
Adapter Port Names: 0
Adapter Port State(0): Enabled
Transport Adapter: qfe3
Adapter State: Enabled
Adapter Transport Type: dlpi
Adapter Property(device_name): qfe
Adapter Property(device_instance): 3
Adapter Property(lazy_free): 1
Adapter Property(dlpi_heartbeat_timeout): 10000
Adapter Property(dlpi_heartbeat_quantum): 1000
Adapter Property(nw_bandwidth): 80
Adapter Property(bandwidth): 10
Adapter Property(ip_address): 172.16.1.2
Adapter Property(netmask): 255.255.255.128
Adapter Port Names: 0
Adapter Port State(0): Enabled
--- SNMP MIB Configuration on phys-schost-2 ---
SNMP MIB Name: Event
State: Disabled
Protocol: SNMPv2
--- SNMP Host Configuration on phys-schost-2 ---
--- SNMP User Configuration on phys-schost-2 ---
=== Transport Cables ===
Transport Cable: phys-schost-1:qfe3,switch2@1
Cable Endpoint1: phys-schost-1:qfe3
Cable Endpoint2: switch2@1
Cable State: Enabled
Transport Cable: phys-schost-1:hme0,switch1@1
Cable Endpoint1: phys-schost-1:hme0
Cable Endpoint2: switch1@1
Cable State: Enabled
Transport Cable: phys-schost-2:hme0,switch1@2
Cable Endpoint1: phys-schost-2:hme0
Cable Endpoint2: switch1@2
Cable State: Enabled
Transport Cable: phys-schost-2:qfe3,switch2@2
Cable Endpoint1: phys-schost-2:qfe3
Cable Endpoint2: switch2@2
Cable State: Enabled
=== Transport Switches ===
Transport Switch: switch2
Switch State: Enabled
Switch Type: switch
Switch Port Names: 1 2
Switch Port State(1): Enabled
Switch Port State(2): Enabled
Transport Switch: switch1
Switch State: Enabled
Switch Type: switch
Switch Port Names: 1 2
Switch Port State(1): Enabled
Switch Port State(2): Enabled
=== Quorum Devices ===
Quorum Device Name: d3
Enabled: yes
Votes: 1
Global Name: /dev/did/rdsk/d3s2
Type: scsi
Access Mode: scsi2
Hosts (enabled): phys-schost-1, phys-schost-2
Quorum Device Name: qs1
Enabled: yes
Votes: 1
Global Name: qs1
Type: quorum_server
Hosts (enabled): phys-schost-1, phys-schost-2
Quorum Server Host: 10.11.114.83
Port: 9000
=== Device Groups ===
Device Group Name: testdg3
Type: SVM
failback: no
Node List: phys-schost-1, phys-schost-2
preferenced: yes
numsecondaries: 1
diskset name: testdg3
=== Registered Resource Types ===
Resource Type: SUNW.LogicalHostname:2
RT_description: Logical Hostname Resource Type
RT_version: 2
API_version: 2
RT_basedir: /usr/cluster/lib/rgm/rt/hafoip
Single_instance: False
Proxy: False
Init_nodes: All potential masters
Installed_nodes: <All>
Failover: True
Pkglist: SUNWscu
RT_system: True
Resource Type: SUNW.SharedAddress:2
RT_description: HA Shared Address Resource Type
RT_version: 2
API_version: 2
RT_basedir: /usr/cluster/lib/rgm/rt/hascip
Single_instance: False
Proxy: False
Init_nodes: <Unknown>
Installed_nodes: <All>
Failover: True
Pkglist: SUNWscu
RT_system: True
Resource Type: SUNW.HAStoragePlus:4
RT_description: HA Storage Plus
RT_version: 4
API_version: 2
RT_basedir: /usr/cluster/lib/rgm/rt/hastorageplus
Single_instance: False
Proxy: False
Init_nodes: All potential masters
Installed_nodes: <All>
Failover: False
Pkglist: SUNWscu
RT_system: False
Resource Type: SUNW.haderby
RT_description: haderby server for Oracle Solaris Cluster
RT_version: 1
API_version: 7
RT_basedir: /usr/cluster/lib/rgm/rt/haderby
Single_instance: False
Proxy: False
Init_nodes: All potential masters
Installed_nodes: <All>
Failover: False
Pkglist: SUNWscderby
RT_system: False
Resource Type: SUNW.sctelemetry
RT_description: sctelemetry service for Oracle Solaris Cluster
RT_version: 1
API_version: 7
RT_basedir: /usr/cluster/lib/rgm/rt/sctelemetry
Single_instance: True
Proxy: False
Init_nodes: All potential masters
Installed_nodes: <All>
Failover: False
Pkglist: SUNWsctelemetry
RT_system: False
=== Resource Groups and Resources ===
Resource Group: HA_RG
RG_description: <Null>
RG_mode: Failover
RG_state: Managed
Failback: False
Nodelist: phys-schost-1 phys-schost-2
--- Resources for Group HA_RG ---
Resource: HA_R
Type: SUNW.HAStoragePlus:4
Type_version: 4
Group: HA_RG
R_description:
Resource_project_name: SCSLM_HA_RG
Enabled{phys-schost-1}: True
Enabled{phys-schost-2}: True
Monitored{phys-schost-1}: True
Monitored{phys-schost-2}: True
Resource Group: cl-db-rg
RG_description: <Null>
RG_mode: Failover
RG_state: Managed
Failback: False
Nodelist: phys-schost-1 phys-schost-2
--- Resources for Group cl-db-rg ---
Resource: cl-db-rs
Type: SUNW.haderby
Type_version: 1
Group: cl-db-rg
R_description:
Resource_project_name: default
Enabled{phys-schost-1}: True
Enabled{phys-schost-2}: True
Monitored{phys-schost-1}: True
Monitored{phys-schost-2}: True
Resource Group: cl-tlmtry-rg
RG_description: <Null>
RG_mode: Scalable
RG_state: Managed
Failback: False
Nodelist: phys-schost-1 phys-schost-2
--- Resources for Group cl-tlmtry-rg ---
Resource: cl-tlmtry-rs
Type: SUNW.sctelemetry
Type_version: 1
Group: cl-tlmtry-rg
R_description:
Resource_project_name: default
Enabled{phys-schost-1}: True
Enabled{phys-schost-2}: True
Monitored{phys-schost-1}: True
Monitored{phys-schost-2}: True
=== DID Device Instances ===
DID Device Name: /dev/did/rdsk/d1
Full Device Path: phys-schost-1:/dev/rdsk/c0t2d0
Replication: none
default_fencing: global
DID Device Name: /dev/did/rdsk/d2
Full Device Path: phys-schost-1:/dev/rdsk/c1t0d0
Replication: none
default_fencing: global
DID Device Name: /dev/did/rdsk/d3
Full Device Path: phys-schost-2:/dev/rdsk/c2t1d0
Full Device Path: phys-schost-1:/dev/rdsk/c2t1d0
Replication: none
default_fencing: global
DID Device Name: /dev/did/rdsk/d4
Full Device Path: phys-schost-2:/dev/rdsk/c2t2d0
Full Device Path: phys-schost-1:/dev/rdsk/c2t2d0
Replication: none
default_fencing: global
DID Device Name: /dev/did/rdsk/d5
Full Device Path: phys-schost-2:/dev/rdsk/c0t2d0
Replication: none
default_fencing: global
DID Device Name: /dev/did/rdsk/d6
Full Device Path: phys-schost-2:/dev/rdsk/c1t0d0
Replication: none
default_fencing: global
=== NAS Devices ===
Nas Device: nas_filer1
Type: netapp
User ID: root
Nas Device: nas2
Type: netapp
User ID: llaiEjemplo 1-7 Visualización de la información del clúster de zona
En el ejemplo siguiente figuran las propiedades de la configuración del clúster de zona.
% clzonecluster show
=== Zone Clusters ===
Zone Cluster Name: sczone
zonename: sczone
zonepath: /zones/sczone
autoboot: TRUE
ip-type: shared
enable_priv_net: TRUE
--- Solaris Resources for sczone ---
Resource Name: net
address: 172.16.0.1
physical: auto
Resource Name: net
address: 172.16.0.2
physical: auto
Resource Name: fs
dir: /gz/db_qfs/CrsHome
special: CrsHome
raw:
type: samfs
options: []
Resource Name: fs
dir: /gz/db_qfs/CrsData
special: CrsData
raw:
type: samfs
options: []
Resource Name: fs
dir: /gz/db_qfs/OraHome
special: OraHome
raw:
type: samfs
options: []
Resource Name: fs
dir: /gz/db_qfs/OraData
special: OraData
raw:
type: samfs
options: []
--- Zone Cluster Nodes for sczone ---
Node Name: sczone-1
physical-host: sczone-1
hostname: lzzone-1
Node Name: sczone-2
physical-host: sczone-2
hostname: lzzone-2
También puede ver los dispositivos NAS que se han configurado para clústeres globales o de zona, utilizando el subcomando clnasdevice show o Oracle Solaris Cluster Manager. Para obtener más información, consulte la página de comando man clnasdevice(1CL).
El comando cluster(1CL) se sirve del comando check para validar la configuración básica que necesita un clúster global para funcionar correctamente. Si ninguna comprobación arroja un resultado incorrecto, cluster check devuelve al indicador del shell. Si falla alguna de las comprobaciones, cluster check emite informes que aparecen en el directorio de salida que se haya especificado o en el predeterminado. Si ejecuta cluster check con más de un nodo, cluster check emite un informe para cada nodo y un informe para las comprobaciones que comprenden varios nodos. También puede utilizar el comando cluster list-checks para que se muestre una lista con todas las comprobaciones disponibles para el clúster.
Puede ejecutar el comando cluster check en modo detallado con el indicador -v para que se muestre la información de progreso.
Nota - Ejecute cluster check después de realizar un procedimiento de administración que pueda provocar modificaciones en los dispositivos, en los componentes de administración de volúmenes o en la configuración de Oracle Solaris Cluster.
Al ejecutar el comando clzonecluster(1CL) en el nodo de votación de clúster global, se lleva a cabo un conjunto de comprobaciones con el fin de validar la configuración necesaria para que un clúster de zona funcione correctamente. Si todas las comprobaciones son correctas, clzonecluster verify devuelve al indicador de shell y el clúster de zona se puede instalar con seguridad. Si falla alguna de las comprobaciones, clzonecluster verify informa sobre los nodos del clúster global en los que la verificación no obtuvo un resultado correcto. Si ejecuta clzonecluster verify respecto a más de un nodo, se emite un informe para cada nodo y un informe para las comprobaciones que comprenden varios nodos. No se permite utilizar el subcomando verify dentro de los clústers de zona.
phys-schost# su
phys-schost# cluster check
phys-schost# clzonecluster verify zoneclustername
Ejemplo 1-8 Comprobación de la configuración del clúster global con resultado correcto en todas las comprobaciones
El ejemplo siguiente muestra cómo la ejecución de cluster check en modo detallado respecto a los nodos phys-schost-1 y phys-schost-2 supera correctamente todas las comprobaciones.
phys-schost# cluster check -v -h phys-schost-1, phys-schost-2 cluster check: Requesting explorer data and node report from phys-schost-1. cluster check: Requesting explorer data and node report from phys-schost-2. cluster check: phys-schost-1: Explorer finished. cluster check: phys-schost-1: Starting single-node checks. cluster check: phys-schost-1: Single-node checks finished. cluster check: phys-schost-2: Explorer finished. cluster check: phys-schost-2: Starting single-node checks. cluster check: phys-schost-2: Single-node checks finished. cluster check: Starting multi-node checks. cluster check: Multi-node checks finished #
Ejemplo 1-9 Comprobación de la configuración del clúster global con una comprobación con resultado no satisfactorio
El ejemplo siguiente muestra el nodo phys-schost-2, perteneciente al clúster denominado suncluster, excepto el punto de montaje /global/phys-schost-1. Los informes se crean en el directorio de salida /var/cluster/logs/cluster_check/<timestamp> .
phys-schost# cluster check -v -h phys-schost-1, phys-schost-2 -o /var/cluster/logs/cluster_check/Dec5/ cluster check: Requesting explorer data and node report from phys-schost-1. cluster check: Requesting explorer data and node report from phys-schost-2. cluster check: phys-schost-1: Explorer finished. cluster check: phys-schost-1: Starting single-node checks. cluster check: phys-schost-1: Single-node checks finished. cluster check: phys-schost-2: Explorer finished. cluster check: phys-schost-2: Starting single-node checks. cluster check: phys-schost-2: Single-node checks finished. cluster check: Starting multi-node checks. cluster check: Multi-node checks finished. cluster check: One or more checks failed. cluster check: The greatest severity of all check failures was 3 (HIGH). cluster check: Reports are in /var/cluster/logs/cluster_check/<Dec5>. # # cat /var/cluster/logs/cluster_check/Dec5/cluster_check-results.suncluster.txt ... =================================================== = ANALYSIS DETAILS = =================================================== ------------------------------------ CHECK ID : 3065 SEVERITY : HIGH FAILURE : Global filesystem /etc/vfstab entries are not consistent across all Oracle Solaris Cluster 3.x nodes. ANALYSIS : The global filesystem /etc/vfstab entries are not consistent across all nodes in this cluster. Analysis indicates: FileSystem '/global/phys-schost-1' is on 'phys-schost-1' but missing from 'phys-schost-2'. RECOMMEND: Ensure each node has the correct /etc/vfstab entry for the filesystem(s) in question. ... #
El comando cluster(1CL) incluye comprobaciones que verifican el archivo /etc/vfstab para detectar posibles errores de configuración con el sistema de archivos del clúster y sus puntos de montaje globales.
Nota - Ejecute cluster check después de efectuar cambios en la configuración del clúster que hayan afectado a los dispositivos o a los componentes de administración de volúmenes.
% su
phys-schost# cluster check
Ejemplo 1-10 Comprobación de puntos de montaje globales
El ejemplo siguiente muestra el nodo phys-schost-2 del clúster denominado suncluster, excepto el punto de montaje /global/schost-1 . Los informes se envían al directorio de salida, /var/cluster/logs/cluster_check/<timestamp>/ .
phys-schost# cluster check -v1 -h phys-schost-1,phys-schost-2 -o /var/cluster//logs/cluster_check/Dec5/ cluster check: Requesting explorer data and node report from phys-schost-1. cluster check: Requesting explorer data and node report from phys-schost-2. cluster check: phys-schost-1: Explorer finished. cluster check: phys-schost-1: Starting single-node checks. cluster check: phys-schost-1: Single-node checks finished. cluster check: phys-schost-2: Explorer finished. cluster check: phys-schost-2: Starting single-node checks. cluster check: phys-schost-2: Single-node checks finished. cluster check: Starting multi-node checks. cluster check: Multi-node checks finished. cluster check: One or more checks failed. cluster check: The greatest severity of all check failures was 3 (HIGH). cluster check: Reports are in /var/cluster/logs/cluster_check/Dec5. # # cat /var/cluster/logs/cluster_check/Dec5/cluster_check-results.suncluster.txt ... =================================================== = ANALYSIS DETAILS = =================================================== ------------------------------------ CHECK ID : 3065 SEVERITY : HIGH FAILURE : Global filesystem /etc/vfstab entries are not consistent across all Oracle Solaris Cluster 3.x nodes. ANALYSIS : The global filesystem /etc/vfstab entries are not consistent across all nodes in this cluster. Analysis indicates: FileSystem '/global/phys-schost-1' is on 'phys-schost-1' but missing from 'phys-schost-2'. RECOMMEND: Ensure each node has the correct /etc/vfstab entry for the filesystem(s) in question. ... # # cat /var/cluster/logs/cluster_check/Dec5/cluster_check-results.phys-schost-1.txt ... =================================================== = ANALYSIS DETAILS = =================================================== ------------------------------------ CHECK ID : 1398 SEVERITY : HIGH FAILURE : An unsupported server is being used as an Oracle Solaris Cluster 3.x node. ANALYSIS : This server may not been qualified to be used as an Oracle Solaris Cluster 3.x node. Only servers that have been qualified with Oracle Solaris Cluster 3.x are supported as Oracle Solaris Cluster 3.x nodes. RECOMMEND: Because the list of supported servers is always being updated, check with your Oracle representative to get the latest information on what servers are currently supported and only use a server that is supported with Oracle Solaris Cluster 3.x. ... #
El archivo de texto ASCII /var/cluster/logs/commandlog contiene registros de comandos de Oracle Solaris Cluster seleccionados que se ejecutan en un clúster. Los comandos comienzan a registrarse automáticamente al configurarse el clúster y la operación se finaliza al cerrarse el clúster. Los comandos se registran en todos los nodos activos y que se han arrancado en modo de clúster.
Entre los comandos que no quedan registrados en este archivo están los encargados de mostrar la configuración y el estado actual del clúster.
Entre los comandos que quedan registrados en este archivo están los encargados de configurar y modificar el estado actual del clúster:
claccess
cldevice
cldevicegroup
clinterconnect
clnasdevice
clnode
clquorum
clreslogicalhostname
clresource
clresourcegroup
clresourcetype
clressharedaddress
clsetup
clsnmphost
clsnmpmib
clnsmpuser
cltelemetryattribute
cluster
clzonecluster
scdidadm
Los registros del archivo commandlog pueden contener los elementos siguientes:
Fecha y marca de tiempo
Nombre del host desde el cual se ejecutó el comando
ID de proceso del comando
Nombre de inicio de sesión del usuario que ejecutó el comando
Comando ejecutado por el usuario, con todas las opciones y los operandos
Nota - Las opciones del comando se recogen en el archivo commandlog para poderlas identificar, copiar, pegar y ejecutar en el shell.
Estado de salida del comando ejecutado
Nota - Si un comando interrumpe su ejecución de forma anómala con resultados desconocidos, el software Oracle Solaris Cluster no muestra un estado de salida en el archivo commandlog.
De forma predeterminada, el archivo commandlog se archiva periódicamente una vez por semana. Para modificar las directrices de archivado del archivo commandlog, utilice el comando crontab en todos los nodos del clúster. Para obtener más información, consulte la página de comando man crontab(1).
El software Oracle Solaris Cluster conserva en todo momento hasta un máximo de ocho archivos commandlog archivados anteriormente en cada nodo del clúster. El archivo commandlog de la semana actual se denomina commandlog. El archivo semanal completo más reciente se denomina commandlog.0. El archivo semanal completo más antiguo se denomina commandlog.7.
phys-schost# more /var/cluster/logs/commandlog
Ejemplo 1-11 Visualización del contenido de los registros de comandos de Oracle Solaris Cluster
El ejemplo siguiente muestra el contenido del archivo commandlog que se visualiza mediante el comando more.
more -lines10 /var/cluster/logs/commandlog 11/11/2006 09:42:51 phys-schost-1 5222 root START - clsetup 11/11/2006 09:43:36 phys-schost-1 5758 root START - clrg add "app-sa-1" 11/11/2006 09:43:36 phys-schost-1 5758 root END 0 11/11/2006 09:43:36 phys-schost-1 5760 root START - clrg set -y "RG_description=Department Shared Address RG" "app-sa-1" 11/11/2006 09:43:37 phys-schost-1 5760 root END 0 11/11/2006 09:44:15 phys-schost-1 5810 root START - clrg online "app-sa-1" 11/11/2006 09:44:15 phys-schost-1 5810 root END 0 11/11/2006 09:44:19 phys-schost-1 5222 root END -20988320 12/02/2006 14:37:21 phys-schost-1 5542 jbloggs START - clrg -c -g "app-sa-1" -y "RG_description=Joe Bloggs Shared Address RG" 12/02/2006 14:37:22 phys-schost-1 5542 jbloggs END 0