Un système de fichiers peut être exporté vers un cluster de zones à l'aide d'un montage direct ou d'un montage loopback.
Les clusters de zones prennent en charge les montages directs des fichiers suivants :
Système de fichiers local UFS
Système de fichiers autonome Sun QFS
Système de fichiers partagé Sun QFS, utilisé pour prendre en charge Oracle RAC
Système de fichiers ZFS Oracle Solaris (exporté en tant qu'ensemble de données)
Système de fichiers NFS à partir de périphériques NAS pris en charge
Les clusters de zones prennent en charge les montages loopback des fichiers suivants :
Système de fichiers local UFS
Système de fichiers autonome Sun QFS
Système de fichiers partagé Sun QFS, utilisé uniquement pour prendre en charge Oracle RAC
Système de fichiers de cluster UFS
Vous configurez une ressource HAStoragePlus ou ScalMountPoint pour gérer le montage du système de fichiers. Pour obtenir des instructions sur l'ajout d'un système de fichiers à un cluster de zones, reportez-vous la section Ajout de systèmes de fichiers à un cluster de zones du manuel Guide d’installation du logiciel Oracle Solaris Cluster .
Une ressource HAStoragePlus ne contrôle pas un système de fichiers ZFS si la propriété du mountpoint (point de montage) du système de fichiers est définie sur none ou legacy ou que sa propriété canmount est définie sur off. Pour tous les autres systèmes de fichiers ZFS, la détection des pannes de ressources HAStoragePlus vérifie si le système de fichiers est monté. Si le système de fichiers est monté, la ressource HAStoragePlus teste l'accessibilité du système de fichiers en lisant et en écrivant dessus, selon la valeur de la propriété IOOption nommée ReadOnly/ReadWrite.
Si le système de fichiers ZFS n'est pas monté ou que le contrôle du système de fichiers échoue, la détection des pannes de ressources échoue et la ressource est définie sur Faulted. RGM tentera un redémarrage en fonction des propriétés retry_count et retry_interval de la ressource. Cette action entraîne le remontage du système de fichiers si les paramètres des propriétés mountpoint et canmount décrits précédemment ne sont pas définis. Si la détection des pannes continue d'échouer et dépasse le retry_count dans le retry_interval, RGM bascule la ressource sur un autre noeud.
L'élément phys-schost# fait référence à l'invite du cluster global. Cette procédure contient la forme longue des commandes d'Oracle Solaris Cluster. La plupart des commandes possèdent également des formes brèves. A l'exception de la forme du nom, ces commandes sont identiques.
Vous pouvez également utiliser la GUI d'Oracle Solaris Cluster Manager pour supprimer un système de fichiers d'un cluster de zones. Pour obtenir les instructions de connexion à la GUI, reportez-vous à la section Accès à Oracle Solaris Cluster Manager.
Certaines étapes de cette procédure doivent être effectuées depuis un noeud du cluster global. Les autres tâches sont à effectuer depuis un noeud du cluster de zones.
phys-schost# clresource delete -F -Z zoneclustername fs_zone_resources
phys-schost# clresource delete -F fs_global_resources
Utilisez l'option –F avec précaution : elle force la suppression de toutes les ressources spécifiées, même si vous ne les avez pas désactivées au préalable. Toutes les ressources spécifiées sont supprimées des paramètres de dépendance des autres ressources. Cela peut provoquer un arrêt du service dans le cluster. Les ressources dépendant d'autres ressources qui n'ont pas été supprimée, peuvent être conservées en tant que non valides ou erreurs. Pour plus d'informations, reportez-vous à la page de manuel clresource(1CL).
Par exemple :
phys-schost# clzonecluster configure zoneclustername
phys-schost# clzonecluster configure zoneclustername
clzc:zoneclustername> remove fs dir=filesystemdirectory
clzc:zoneclustername> commit
L'option dir= spécifie le point de montage du système de fichiers.
phys-schost# clzonecluster show –v zoneclustername
L'exemple suivant présente comment supprimer un système de fichiers avec un répertoire de point de montage (/local/ufs-1) configuré dans un cluster de zones appelé sczone. Cette ressource se nomme hasp-rs et est de type HAStoragePlus.
phys-schost# clzonecluster show -v sczone ... Resource Name: fs dir: /local/ufs-1 special: /dev/md/ds1/dsk/d0 raw: /dev/md/ds1/rdsk/d0 type: ufs options: [logging] ... phys-schost# clresource delete -F -Z sczone hasp-rs phys-schost# clzonecluster configure sczone clzc:sczone> remove fs dir=/local/ufs-1 clzc:sczone> commit phys-schost# clzonecluster show -v sczoneExemple 9-13 Suppression d'un système de fichiers ZFS hautement disponible dans un cluster de zones
L'exemple suivant explique comment supprimer un système de fichiers ZFS dans un pool ZFS nommé HAzpool et configuré dans le cluster de zones sczone dans la ressource hasp-rs de type SUNW.HAStoragePlus.
phys-schost# clzonecluster show -v sczone ... Resource Name: dataset name: HAzpool ... phys-schost# clresource delete -F -Z sczone hasp-rs phys-schost# clzonecluster configure sczone clzc:sczone> remove dataset name=HAzpool clzc:sczone> commit phys-schost# clzonecluster show -v sczone