Omitir Vínculos de navegación | |
Salir de la Vista de impresión | |
Guía de administración del sistema de Oracle Solaris Cluster Oracle Solaris Cluster 3.3 3/13 (Español) |
1. Introducción a la administración de Oracle Solaris Cluster
2. Oracle Solaris Cluster y RBAC
3. Cierre y arranque de un cluster
4. Métodos de replicación de datos
7. Administración de interconexiones de clusters y redes públicas
8. Adición y eliminación de un nodo
Información general sobre la administración del cluster
Asignación de un ID de nodo a un nombre de nodo
Uso de la autenticación del nodo del cluster nuevo
Restablecimiento de la hora del día en un cluster
SPARC: Visualización de la PROM OpenBoot en un nodo
Cómo cambiar un nombre de host privado de nodo
Agregación de un nombre de host privado para un nodo sin voto en un cluster global
Cambio de nombre de host privado en un nodo sin voto de un cluster global
Supresión de un nombre de host privado para un nodo sin voto en un cluster global
Cómo cambiar el nombre de un nodo
Cómo poner un nodo en estado de mantenimiento
Cómo sacar un nodo del estado de mantenimiento
Cómo instalar el software de Oracle Solaris Cluster desde un nodo de cluster
Resolución de problemas de desinstalación de nodos
Entradas del sistema de archivos de cluster no eliminadas
Lista no eliminada de grupos de dispositivos
Secuencia de comandos de desinstalación faltante
Creación, configuración y gestión de la MIB de eventos de SNMP de Oracle Solaris Cluster
Cómo habilitar una MIB de eventos de SNMP
Cómo deshabilitar una MIB de eventos de SNMP
Cómo cambiar una MIB de eventos de SNMP
Cómo habilitar un host de SNMP para que reciba capturas de SNMP en un nodo
Cómo deshabilitar un host de SNMP para que no reciba capturas de SNMP en un nodo
Cómo agregar un usuario de SNMP a un nodo
Cómo eliminar un usuario de SNMP de un nodo
Configuración de límites de carga
Cómo configurar límites de carga en un nodo
Cómo realizar tareas administrativas del cluster de zona
Cómo agregar una dirección de red a un cluster de zona
Cómo eliminar un cluster de zona
Cómo eliminar un sistema de archivos de un cluster de zona
Cómo eliminar un dispositivo de almacenamiento de un cluster de zona
Ejecución de una aplicación fuera del cluster global
Restauración de un conjunto de discos dañado
Guardado de la configuración del software de Solaris Volume Manager
Cómo purgar el conjunto de discos dañado
Recreación de la configuración del software de Solaris Volume Manager
10. Configuración del control del uso de la CPU
11. Aplicación de parches de software y firmware de Oracle Solaris Cluster
12. Copias de seguridad y restauraciones de clusters
13. Administración de Oracle Solaris Cluster con las interfaces gráficas de usuario
En un cluster de zona puede efectuar otras tareas administrativas, por ejemplo, mover la ruta de zona, preparar un cluster de zona para que ejecute aplicaciones y clonar un cluster de zona. Todos estos comandos deben ejecutarse desde el nodo de votación del cluster global.
Puede crear un nuevo cluster de zona o agregar un sistema de archivos o dispositivo de almacenamiento mediante la utilidad clsetup para iniciar el asistente de configuración de cluster de zona. Las zonas en un cluster de zona se configuran cuando ejecuta clzonecluster install -c para configurar los perfiles. Consulte Establecimiento del cluster de zona de Guía de instalación del software de Oracle Solaris Cluster para obtener instrucciones sobre cómo usar la utilidad clsetup o la opción -c config_profile.
Nota - Los comandos de Oracle Solaris Cluster que sólo ejecuta desde el nodo de votación en el cluster global no son válidos para usarlos con los clusters de zona. Consulte la página del comando man de Oracle Solaris Cluster para obtener información sobre la validez del uso de un comando en zonas.
Tabla 9-3 Otras tareas del cluster de zona
|
Este procedimiento agrega una dirección de red para que la utilice un cluster de zona existente. Una dirección de red se utiliza para configurar el host lógico o los recursos de dirección IP compartida en el cluster de zona. Puede ejecutar la utilidad clsetup varias veces para agregar tantas direcciones de red como sea necesario.
Inicie la utilidad clsetup.
phys-schost# clsetup
Aparece el menú principal.
Especifica la dirección de red que se utiliza para configurar recursos de dirección IP compartida o host lógico en el cluster de zona. Por ejemplo: 192.168.100.101.
Se admiten los siguientes tipos de direcciones de red:
Una dirección IPv4 válida, seguida, de forma opcional, por / y una longitud de prefijo.
Una dirección IPv6 válida, que debe ir seguida de / y una longitud de prefijo.
Un nombre de host que se resuelve en una dirección IPv4. No se admiten los nombres de host que se resuelven en direcciones IPv6.
Consulte la página del comando man zonecfg(1M) para obtener más información sobre las direcciones de red.
Se muestran los resultados de su cambio de configuración. Por ejemplo:
>>> Result of Configuration Change to the Zone Cluster(sczone) <<< Adding network address to the zone cluster... The zone cluster is being created with the following configuration /usr/cluster/bin/clzonecluster configure sczone add net set address=phys-schost-1 end All network address added successfully to sczone.
Puede eliminar un cluster de zona específico o usar un comodín para eliminar todos los clusters de zona configurados en el cluster global. El cluster de zona debe estar configurado antes de eliminarlo.
phys-schost# clresourcegroup delete -F -Z zoneclustername +
Nota - Este paso debe realizarse desde un nodo del cluster global. En cambio, para realizar este paso desde un nodo del cluster de zona, inicie una sesión en el nodo del cluster de zona y omita -Z zonecluster del comando.
phys-schost# clzonecluster halt zoneclustername
phys-schost# clzonecluster uninstall zoneclustername
phys-schost# clzonecluster delete zoneclustername
Ejemplo 9-11 Eliminación de un cluster de zona de un cluster global
phys-schost# clresourcegroup delete -F -Z sczone +
phys-schost# clzonecluster halt sczone
phys-schost# clzonecluster uninstall sczone
phys-schost# clzonecluster delete sczone
Un sistema de archivos se puede exportar a un cluster de zona mediante un montaje directo o un montaje en bucle de retorno.
Los clusters de zona admiten montajes directos para lo siguiente:
Sistema local de archivos UFS
Sistema de archivos Sistema de archivos de cluster Oracle Automatic Storage Management (Oracle ACFS)
Sistema de archivos independientes QFS
Sistema de archivos compartidos QFS, cuando se utiliza únicamente para compatibilidad con Oracle RAC
ZFS (exportado como un conjunto de datos)
NFS desde dispositivos NAS admitidos
Los clusters de zona pueden gestionar montajes en bucle de retorno para lo siguiente:
Sistema local de archivos UFS
Sistema de archivos independientes QFS
Sistema de archivos compartidos QFS, cuando se utiliza únicamente para compatibilidad con Oracle RAC
Sistema de archivos de cluster de UFS
Puede configurar un recurso HAStoragePlus o ScalMountPoint para gestionar el montaje del sistema de archivos. Para obtener instrucciones sobre cómo agregar un sistema de archivos a un cluster de zona, consulte Adición de sistemas de archivos a un cluster de zona de Guía de instalación del software de Oracle Solaris Cluster.
phys-schost# refleja un indicador de cluster global. Este procedimiento proporciona las formas largas de los comandos de Oracle Solaris Cluster. La mayoría de los comandos también tienen una forma corta. A excepción de las formas de los nombres de comandos, los comandos son idénticos.
phys-schost# clresource delete -F -Z zoneclustername fs_zone_resources
phys-schost# clresource delete -F fs_global_resources
Utilice la opción -F con cuidado porque fuerza la eliminación de todos los recursos que especifique, incluso si no los ha deshabilitado primero. Todos los recursos especificados se eliminan de la configuración de la dependencia de recursos de otros recursos, que pueden provocar la pérdida de servicio en el cluster. Los recursos dependientes que no se borren pueden quedar en estado no válido o de error. Para obtener más información, consulte la página del comando man clresource(1CL).
Consejo - Si el grupo de recursos del recurso eliminado se vacía posteriormente, puede eliminarlo de forma segura.
phys-schost# clzonecluster configure zoneclustername
phys-schost# clzonecluster configure zoneclustername
clzc:zoneclustername> remove fs dir=filesystemdirectory
clzc:zoneclustername> commit
El punto de montaje de sistema de archivos está especificado por dir=.
phys-schost# clzonecluster show -v zoneclustername
Ejemplo 9-12 Eliminación de un sistema de archivos de alta disponibilidad en un cluster de zona
En este ejemplo se muestra cómo eliminar un sistema de archivos con un directorio de punto de montaje (/local/ufs-1) configurado en un cluster de zona denominado sczone. El recurso es hasp-rs y es del tipo HAStoragePlus.
phys-schost# clzonecluster show -v sczone ... Resource Name: fs dir: /local/ufs-1 special: /dev/md/ds1/dsk/d0 raw: /dev/md/ds1/rdsk/d0 type: ufs options: [logging] ... phys-schost# clresource delete -F -Z sczone hasp-rs phys-schost# clzonecluster configure sczone clzc:sczone> remove fs dir=/local/ufs-1 clzc:sczone> commit phys-schost# clzonecluster show -v sczone
Ejemplo 9-13 Eliminación de un sistema de archivos ZFS de alta disponibilidad en un cluster de zona
En este ejemplo, se muestra cómo eliminar un sistema de archivos ZFS en una agrupación ZFS llamada HAzpool, que está configurada en el cluster de zona sczone del recurso hasp-rs del tipo SUNW.HAStoragePlus.
phys-schost# clzonecluster show -v sczone ... Resource Name: dataset name: HAzpool ... phys-schost# clresource delete -F -Z sczone hasp-rs phys-schost# clzonecluster configure sczone clzc:sczone> remove dataset name=HAzpool clzc:sczone> commit phys-schost# clzonecluster show -v sczone
Puede eliminar dispositivos de almacenamiento, como conjuntos de discos de SVM y dispositivos de DID, de un cluster de zona. Siga este procedimiento para eliminar un dispositivo de almacenamiento desde un cluster de zona.
phys-schost# clresource delete -F -Z zoneclustername dev_zone_resources
phys-schost# clzonecluster show -v zoneclustername ... Resource Name: device match: <device_match> ...
phys-schost# clzonecluster configure zoneclustername clzc:zoneclustername> remove device match=<devices_match> clzc:zoneclustername> commit clzc:zoneclustername> end
phys-schost# clzonecluster reboot zoneclustername
phys-schost# clzonecluster show -v zoneclustername
Ejemplo 9-14 Eliminación de un conjunto de discos de SVM de un cluster de zona
En este ejemplo, se muestra cómo eliminar un conjunto de discos de SVM denominado apachedg y configurado en un cluster de zona denominado sczone. El número establecido del conjunto de discos apachedg es 3. El recurso zc_rs configurado en el cluster utiliza los dispositivos.
phys-schost# clzonecluster show -v sczone ... Resource Name: device match: /dev/md/apachedg/*dsk/* Resource Name: device match: /dev/md/shared/3/*dsk/* ... phys-schost# clresource delete -F -Z sczone zc_rs phys-schost# ls -l /dev/md/apachedg lrwxrwxrwx 1 root root 8 Jul 22 23:11 /dev/md/apachedg -> shared/3 phys-schost# clzonecluster configure sczone clzc:sczone> remove device match=/dev/md/apachedg/*dsk/* clzc:sczone> remove device match=/dev/md/shared/3/*dsk/* clzc:sczone> commit clzc:sczone> end phys-schost# clzonecluster reboot sczone phys-schost# clzonecluster show -v sczone
Ejemplo 9-15 Eliminación de un dispositivo de DID de un cluster de zona
En este ejemplo se muestra cómo eliminar dispositivos de DID d10 y d11, configurados en un cluster de zona denominado sczone. El recurso zc_rs configurado en el cluster utiliza los dispositivos.
phys-schost# clzonecluster show -v sczone ... Resource Name: device match: /dev/did/*dsk/d10* Resource Name: device match: /dev/did/*dsk/d11* ... phys-schost# clresource delete -F -Z sczone zc_rs phys-schost# clzonecluster configure sczone clzc:sczone> remove device match=/dev/did/*dsk/d10* clzc:sczone> remove device match=/dev/did/*dsk/d11* clzc:sczone> commit clzc:sczone> end phys-schost# clzonecluster reboot sczone phys-schost# clzonecluster show -v sczone