Un sistema de archivos se puede exportar a un cluster de zona mediante un montaje directo o un montaje en bucle de retorno.
Los clusters de zona admiten montajes directos para lo siguiente:
Sistema local de archivos UFS
Sistema de archivos independientes Sun QFS
Sistema de archivos compartidos Sun QFS, cuando se utiliza para admitir Oracle RAC
Oracle Solaris ZFS (exportado como conjunto de datos)
NFS desde dispositivos NAS admitidos
Los clusters de zona pueden gestionar montajes en bucle de retorno para lo siguiente:
Sistema local de archivos UFS
Sistema de archivos independientes Sun QFS
Sistema de archivos compartidos Sun QFS, solamente cuando se utiliza para admitir Oracle RAC
Sistema de archivos de cluster de UFS
Puede configurar un recurso HAStoragePlus o ScalMountPoint para gestionar el montaje del sistema de archivos. Para obtener instrucciones sobre cómo agregar un sistema de archivos a un cluster de zona, consulte Agregación de sistemas de archivos a un cluster de zona de Guía de instalación del software de Oracle Solaris Cluster .
Un recurso HAStoragePlus no supervisa un sistema de archivos ZFS si el sistema de archivos tiene la propiedad mountpoint establecida en none o legacy, o la propiedad canmount establecida en off. Para el resto de los sistemas de archivos ZFS, el recurso HAStoragePlus comprueba si el sistema de archivos está montado. Si el sistema de archivos está montado, el recurso HAStoragePlus sondea la accesibilidad del sistema de archivos mediante operaciones de lectura y escritura, según el valor de la propiedad IOOption denominada ReadOnly/ReadWrite.
Si el sistema de archivos ZFS no está montado o falla el sondeo del sistema de archivos, se produce un error en el supervisor de fallos y el recurso se establece en Faulted. RGM intentará reiniciarlo, según las propiedades retry_count y retry_interval del recurso. Esta acción vuelve a montar el sistema de archivos si los valores de las propiedades mountpoint y canmount antes descritas no están implicados. Si el supervisor de recursos sigue fallando y supera retry_count dentro de retry_interval, RGM realiza el failover del recurso a otro nodo.
phys-schost# refleja un indicador de cluster global. Este procedimiento proporciona las formas largas de los comandos de Oracle Solaris Cluster. La mayoría de los comandos también tienen una forma corta. A excepción de las formas de los nombres de comandos, los comandos son idénticos.
También puede utilizar la GUI de Oracle Solaris Cluster Manager para eliminar un sistema de archivos de un cluster de zona. Para obtener instrucciones de inicio de sesión en la GUI, consulte Cómo obtener acceso a Oracle Solaris Cluster Manager.
Algunos pasos de este procedimiento se realizan desde un nodo del cluster global. Otros pasos se efectúan desde un nodo del cluster de zona.
phys-schost# clresource delete -F -Z zoneclustername fs_zone_resources
phys-schost# clresource delete -F fs_global_resources
Utilice la opción –F con cuidado porque fuerza la eliminación de todos los recursos que especifique, incluso si no los ha desactivado primero. Todos los recursos especificados se eliminan de la configuración de la dependencia de recursos de otros recursos, que pueden provocar la pérdida de servicio en el cluster. Los recursos dependientes que no se borren pueden quedar en estado no válido o de error. Para obtener más información, consulte la página del comando man clresource(1CL).
Por ejemplo:
phys-schost# clzonecluster configure zoneclustername
phys-schost# clzonecluster configure zoneclustername
clzc:zoneclustername> remove fs dir=filesystemdirectory
clzc:zoneclustername> commit
El punto de montaje de sistema de archivos está especificado por dir=.
phys-schost# clzonecluster show –v zoneclustername
En este ejemplo, se muestra cómo eliminar un sistema de archivos con un directorio de punto de montaje (/local/ufs-1) configurado en un cluster de zona denominado sczone. El recurso es hasp-rs y del tipo HAStoragePlus.
phys-schost# clzonecluster show -v sczone ... Resource Name: fs dir: /local/ufs-1 special: /dev/md/ds1/dsk/d0 raw: /dev/md/ds1/rdsk/d0 type: ufs options: [logging] ... phys-schost# clresource delete -F -Z sczone hasp-rs phys-schost# clzonecluster configure sczone clzc:sczone> remove fs dir=/local/ufs-1 clzc:sczone> commit phys-schost# clzonecluster show -v sczoneEjemplo 9-13 Eliminación de un sistema de archivos ZFS de alta disponibilidad en un cluster de zona
En este ejemplo, se muestra cómo eliminar un sistema de archivos ZFS en una agrupación ZFS llamada HAzpool, configurado en el cluster de zona sczone en el recurso hasp-rs del tipo SUNW.HAStoragePlus.
phys-schost# clzonecluster show -v sczone ... Resource Name: dataset name: HAzpool ... phys-schost# clresource delete -F -Z sczone hasp-rs phys-schost# clzonecluster configure sczone clzc:sczone> remove dataset name=HAzpool clzc:sczone> commit phys-schost# clzonecluster show -v sczone