Guide d'administration système d'Oracle® Solaris Cluster

Quitter la vue de l'impression

Mis à jour : Octobre 2015
 
 

Suppression d'un système de fichiers d'un cluster de zones

Un système de fichiers peut être exporté vers un cluster de zones à l'aide d'un montage direct ou d'un montage loopback.

Les clusters de zones prennent en charge les montages directs des fichiers suivants :

  • Système de fichiers local UFS

  • Système de fichiers autonome Sun QFS

  • Système de fichiers partagé Sun QFS, utilisé pour prendre en charge Oracle RAC

  • Système de fichiers ZFS Oracle Solaris (exporté en tant qu'ensemble de données)

  • Système de fichiers NFS à partir de périphériques NAS pris en charge

Les clusters de zones prennent en charge les montages loopback des fichiers suivants :

  • Système de fichiers local UFS

  • Système de fichiers autonome Sun QFS

  • Système de fichiers partagé Sun QFS, utilisé uniquement pour prendre en charge Oracle RAC

  • Système de fichiers de cluster UFS

Vous configurez une ressource HAStoragePlus ou ScalMountPoint pour gérer le montage du système de fichiers. Pour obtenir des instructions sur l'ajout d'un système de fichiers à un cluster de zones, reportez-vous la section Ajout de systèmes de fichiers à un cluster de zones du manuel Guide d’installation du logiciel Oracle Solaris Cluster .

Une ressource HAStoragePlus ne contrôle pas un système de fichiers ZFS si la propriété du mountpoint (point de montage) du système de fichiers est définie sur none ou legacy ou que sa propriété canmount est définie sur off. Pour tous les autres systèmes de fichiers ZFS, la détection des pannes de ressources HAStoragePlus vérifie si le système de fichiers est monté. Si le système de fichiers est monté, la ressource HAStoragePlus teste l'accessibilité du système de fichiers en lisant et en écrivant dessus, selon la valeur de la propriété IOOption nommée ReadOnly/ReadWrite.

Si le système de fichiers ZFS n'est pas monté ou que le contrôle du système de fichiers échoue, la détection des pannes de ressources échoue et la ressource est définie sur Faulted. RGM tentera un redémarrage en fonction des propriétés retry_count et retry_interval de la ressource. Cette action entraîne le remontage du système de fichiers si les paramètres des propriétés mountpoint et canmount décrits précédemment ne sont pas définis. Si la détection des pannes continue d'échouer et dépasse le retry_count dans le retry_interval, RGM bascule la ressource sur un autre noeud.

L'élément phys-schost# fait référence à l'invite du cluster global. Cette procédure contient la forme longue des commandes d'Oracle Solaris Cluster. La plupart des commandes possèdent également des formes brèves. A l'exception de la forme du nom, ces commandes sont identiques.

Vous pouvez également utiliser la GUI d'Oracle Solaris Cluster Manager pour supprimer un système de fichiers d'un cluster de zones. Pour obtenir les instructions de connexion à la GUI, reportez-vous à la section Accès à Oracle Solaris Cluster Manager.

  1. Prenez le rôle root sur un noeud du cluster global hébergeant le cluster de zones.

    Certaines étapes de cette procédure doivent être effectuées depuis un noeud du cluster global. Les autres tâches sont à effectuer depuis un noeud du cluster de zones.

  2. Supprimez les ressources associées au système de fichiers à supprimer.
    1. Identifiez et supprimez les types de ressources Oracle Solaris Cluster, tels que HAStoragePlus et SUNW.ScalMountPoint, qui sont configurés pour le système de fichiers du cluster de zones que vous supprimez.
      phys-schost# clresource delete -F -Z zoneclustername fs_zone_resources
    2. Identifiez et supprimez les ressources Oracle Solaris Cluster de type SUNW.qfs qui sont configurées dans le cluster global du système de fichiers à supprimer, le cas échéant.
      phys-schost# clresource delete -F fs_global_resources

      Utilisez l'option –F avec précaution : elle force la suppression de toutes les ressources spécifiées, même si vous ne les avez pas désactivées au préalable. Toutes les ressources spécifiées sont supprimées des paramètres de dépendance des autres ressources. Cela peut provoquer un arrêt du service dans le cluster. Les ressources dépendant d'autres ressources qui n'ont pas été supprimée, peuvent être conservées en tant que non valides ou erreurs. Pour plus d'informations, reportez-vous à la page de manuel clresource(1CL).


    Conseil  -  Si le groupe de la ressource supprimée ne contient par la suite plus aucune ressource, vous pouvez le supprimer en toute sécurité.
  3. Déterminez le chemin d'accès au répertoire du point de montage du système de fichiers.

    Par exemple :

    phys-schost# clzonecluster configure zoneclustername
  4. Supprimez le système de fichiers de la configuration du cluster de zones.
    phys-schost# clzonecluster configure zoneclustername
    clzc:zoneclustername> remove fs dir=filesystemdirectory
    clzc:zoneclustername> commit

    L'option dir= spécifie le point de montage du système de fichiers.

  5. Vérifiez la suppression du système de fichiers.
    phys-schost# clzonecluster show –v zoneclustername
Exemple 9-12  Suppression d'un système de fichiers hautement disponible d'un cluster de zones

L'exemple suivant présente comment supprimer un système de fichiers avec un répertoire de point de montage (/local/ufs-1) configuré dans un cluster de zones appelé sczone. Cette ressource se nomme hasp-rs et est de type HAStoragePlus.

phys-schost# clzonecluster show -v sczone
...
Resource Name:                           fs
dir:                                     /local/ufs-1
special:                                 /dev/md/ds1/dsk/d0
raw:                                     /dev/md/ds1/rdsk/d0
type:                                    ufs
options:                                 [logging]
...
phys-schost# clresource delete -F -Z sczone hasp-rs
phys-schost# clzonecluster configure sczone
clzc:sczone> remove fs dir=/local/ufs-1
clzc:sczone> commit
phys-schost# clzonecluster show -v sczone
Exemple 9-13  Suppression d'un système de fichiers ZFS hautement disponible dans un cluster de zones

L'exemple suivant explique comment supprimer un système de fichiers ZFS dans un pool ZFS nommé HAzpool et configuré dans le cluster de zones sczone dans la ressource hasp-rs de type SUNW.HAStoragePlus.

phys-schost# clzonecluster show -v sczone
...
Resource Name:                           dataset
name:                                     HAzpool
...
phys-schost# clresource delete -F -Z sczone hasp-rs
phys-schost# clzonecluster configure sczone
clzc:sczone> remove dataset name=HAzpool
clzc:sczone> commit
phys-schost# clzonecluster show -v sczone