Realice los siguientes pasos para crear un grupo de failover.
# clresourcegroup create resource-group
Realice el siguiente paso para crear un grupo escalable.
# clresourcegroup create -S [-p Maximum_primaries=m] [-p Desired_primaries=n] \ [-n node-zone-list] resource-group
# clresourcetype register SUNW.HAStoragePlus
# clresource create -g resource-group -t SUNW.HAStoragePlus \ -p FileSystemMountPoints="mount-point-list" hasp-resource
El recurso se crea en el estado activado.
# clresource set -p Resource_dependencies_offline_restart= \ hasp-resource application-resource
# clresourcegroup online -M resource-group
En este ejemplo, se muestra cómo configurar el recurso HAStoragePlus con un sistema de archivos de cluster /global/ufs en un cluster global para un grupo de recursos de failover.
phys-schost-1# vi /etc/vfstab #device device mount FS fsck mount mount #to mount to fsck point type pass at boot options # /dev/md/apachedg/dsk/d0 /dev/md/apachedg/rdsk/d0 /global/ufs ufs 2 yes global, logging # clresourcegroup create hasp-rg # clresourcetype register SUNW.HAStoragePlus # clresource create -g hasp-rg -t SUNW.HAStoragePlus -p \ FileSystemMountPoints=/global/ufs hasp-rs # clresourcegroup online -M hasp-rgEjemplo 2-35 Configuración del tipo de recurso HAStoragePlus con un sistema de archivos de cluster en un cluster de zona
En este ejemplo, se muestra cómo configurar el recurso HAStoragePlus con un sistema de archivos de cluster /global/ufs en un cluster de zona para un grupo de recursos escalable. El sistema de archivos de cluster está disponible para los nodos de cluster de zona en el punto de montaje /zone/ufs. En este ejemplo, la configuración monta el sistema de archivos global /global/ufs en un cluster global y posteriormente lo monta en bucle de retorno en dos nodos del cluster de zona donde está en línea el grupo de recursos.
phys-schost-1# vi /etc/vfstab #device device mount FS fsck mount mount #to mount to fsck point type pass at boot options # /dev/md/apachedg/dsk/d0 /dev/md/apachedg/rdsk/d0 /global/ufs ufs 2 yes global, logging # clzonecluster configure sczone clzc:sczone> add fs clzc:sczone:fs> set dir=/zone/ufs clzc:sczone:fs> set special=/global/ufs clzc:sczone:fs> set type=lofs clzc:sczone:fs> end clzc:sczone:fs> exit # clresourcegroup create -Z sczone -p desired_primaries=2 -p maximum_primaries=2 hasp-rg # clresourcetype register -Z sczone SUNW.HAStoragePlus # clresource create -Z sczone -g hasp-rg -t SUNW.HAStoragePlus -p FileSystemMountPoints=/zone/ufs hasp-rs # clresourcegroup online -Z sczone -M hasp-rg