Guide d'administration système de Sun Cluster 3.1 10/03

Administration des systèmes de fichiers d'un cluster

Le système de fichiers du cluster est un système de fichiers globalement disponible qui peut être lu et est accessible à partir de n'importe quel noeud du cluster.

Tableau 4–3 Liste des tâches : administration des systèmes de fichiers d'un cluster

Tâche 

Pour les instructions, voir... 

Ajout de systèmes de fichiers de cluster après l'installation initiale de Sun Cluster 

    - Utilisez newfs( 1M) et mkdir

Ajout d'un système de fichiers de cluster

Suppression d'un système de fichiers de cluster 

    - Utilisez fuser(1M) et umount(1M)

Suppression d'un système de fichiers de cluster

Vérification de la cohérence des points de montage globaux d'un cluster sur les différents noeuds 

    - Utilisez sccheck( 1M)

Vérification des montages globaux dans un cluster

Ajout d'un système de fichiers de cluster

Effectuez cette tâche pour chaque système de fichiers de cluster créé après l'installation initiale de Sun Cluster.


Attention : Attention :

assurez-vous d'avoir indiqué le nom correct du périphérique de disques. La création d'un système de fichiers de cluster détruit toutes les données présentes sur les disques. Si vous indiquez un nom de périphérique incorrect, vous risquez d'effacer des données que vous auriez voulu conserver.


Pour ajouter un système de fichiers de cluster supplémentaire, les conditions suivantes doivent être remplies :

Si vous avez utilisé SunPlex Manager pour installer des services de données, un ou plusieurs systèmes de fichiers du cluster existent déjà si le nombre de disques partagés existants était suffisant pour y créer ces systèmes.

  1. Devenez superutilisateur sur un noeud du cluster.


    Astuce :

    pour accélérer la création du système de fichiers, vous devez vous connecter comme superutilisateur au noeud principal actuel du périphérique global pour lequel vous créez le système de fichiers.


  2. Créez un système de fichiers à l'aide de la commande newfs(1M).


    Remarque :

    la commande newfs(1M) n'est valide que pour la création de systèmes de fichiers UFS. Pour créer un système de fichiers VxFS, suivez les procédures décrites dans la documentation de votre VxFS.



    # newfs périphériques_disques_bruts
    

    Le tableau suivant présente des exemples de noms pour l'argument périphériques_disques_bruts. Notez que les conventions de désignation sont différentes pour chaque gestionnaire de volumes.

    Tableau 4–4 Exemples de noms de périphériques de disques bruts

    Si votre gestionnaire de volume est … 

    Un périphérique de disques peut porter le nom … 

    Description 

    Solstice DiskSuite/Solaris Volume Manager 

    /dev/md/oracle/rdsk/d1

    Périphériques de disques bruts d1 dans l'ensemble de disques oracle.

    VERITAS Volume Manager 

    /dev/vx/rdsk/oradg/vol01

    Périphériques de disques bruts vol01 dans le groupe de disques oradg.

    Aucun 

    /dev/global/rdsk/d1s3

    Périphériques de disques bruts pour la tranche de bloc d1s3.

     

  3. Sur chaque noeud du cluster, créez un répertoire de point de montage pour le système de fichiers de cluster.

    Vous devez créer un point de montage sur chaque noeud, même si l'accès au système de fichiers du cluster ne se fait pas sur tous les noeuds.


    Astuce :

    pour vous faciliter le travail d'administration, créez le point de montage dans le répertoire /global/groupe_périphériques. Cet emplacement vous permet de distinguer facilement les systèmes de fichiers de cluster, disponibles globalement, des systèmes de fichiers locaux.



    # mkdir -p /global/groupe de périphériques/point de montage
    
    groupe_périphériques

    Nom du répertoire correspondant au nom du groupe de périphériques contenant le périphérique en question.

    point_montage

    Nom du répertoire sur lequel vous devez monter le système de fichiers du cluster.

  4. Sur chaque noeud du cluster, indiquez une entrée correspondant au point de montage dans le fichier /etc/vfstab.

    1. Utilisez les options de montage obligatoires suivantes.


      Remarque :

      l'option logging est requise pour tous les systèmes de fichiers de cluster.


      • Journalisation UFS Solaris – Utilisez les options de montage global,logging. Reportez-vous à la page de manuel mount_ufs (1M) pour de plus amples informations sur les options de montage UFS.


        Remarque :

        l'option de montage syncdir n'est pas obligatoire pour les systèmes de fichiers de cluster UFS. Si vous indiquez syncdir, vous êtes assuré d'un comportement du système de fichiers conforme à POSIX. Dans le cas contraire, vous aurez le même comportement qu'avec les systèmes de fichiers UFS. Le fait de ne pas spécifier syncdir peut considérablement améliorer les performances des écritures qui allouent des blocs de disque, par exemple lors de l'ajout de données à la fin d'un fichier. Cependant, dans certains cas, si vous n'utilisez pas syncdir, vous ne découvrirez une situation d'espace insuffisant qu'en fermant un fichier. Les cas dans lesquels vous risquez d'avoir des problèmes si vous n'indiquez pas syncdir sont rares. Avec syncdir (et le comportement POSIX), la situation d'espace insuffisant serait découverte avant la fermeture.


      • Solstice DiskSuite/Solaris Volume Manager métapériphérique Trans ou volume de transaction– Utilisez l'option de montage global (n'utilisez pas l'option de montage logging). Pour de plus amples informations sur la configuration du métapériphérique Trans et des volumes de transaction, reportez-vous à votre documentation Solstice DiskSuite/Solaris Volume Manager.


        Remarque :

        les volumes de transaction sont programmés pour être supprimés de l'environnement d'exploitation Solaris dans une prochaine version de Solaris. Solaris UFS logging, disponible depuis la version 8 de Solaris, fournit les mêmes capacités mais des performances supérieures, ainsi que des exigences moindres en termes de dépassement et d'administration de système.


      • VxFS logging – Utilisez les options de montage global, log. Reportez-vous à la page de manuel mount_vxfs(1M) pour de plus amples informations sur les options de montage VxFS.

    2. Pour monter automatiquement le système de fichiers du cluster, indiquez la valeur oui dans le champ mount at boot.

    3. Assurez-vous, pour chaque système de fichiers de cluster, que les informations de l'entrée /etc/vfstab sont les mêmes sur chaque noeud.

    4. Assurez-vous que les entrées du fichier /etc/vfstab de chaque noeud répertorient les périphériques dans le même ordre.

    5. Vérifiez les dépendances liées à l'ordre d'initialisation des systèmes de fichiers.

      Par exemple, imaginez un scénario dans lequel phys-schost-1 monte le périphérique de disques d0 sur /global/oracle et phys-schost-2 monte le périphérique de disques d1 sur /global/oracle/logs. Avec cette configuration, phys-schost-2 ne peut démarrer et monter /global/oracle/logs qu'une fois que phys-schost-1 a démarré et monté /global/oracle.

    Reportez-vous à la page de manuel vfstab(4) pour de plus amples informations.

  5. Vérifiez que les points de montage existent et que les entrées du fichier /etc/vfstab sont correctes sur tous les noeuds du cluster.


    # sccheck
    

    Si aucune erreur ne se produit, l'utilitaire n'affiche pas de résultat.

  6. À partir d'un noeud quelconque du cluster, montez le système de fichiers du cluster.


    # mount /global/groupe de périphériques/point de montage
    

  7. Sur chaque noeud du cluster, vérifiez que le système de fichiers du cluster est bien monté.

    Vous pouvez utiliser la commande df(1M) ou mount(1M) pour afficher la liste des systèmes de fichiers montés.

    Pour gérer un système de fichiers de cluster VxFS en environnement Sun Cluster, exécutez les commandes administratives à partir du noeud principal sur lequel est monté le système de fichiers du cluster VxFS.

Exemple : ajout d'un système de fichiers de cluster

L'exemple suivant crée un système de fichiers UFS sur le métapériphérique Solstice DiskSuite/Solaris Volume Manager /dev/md/oracle/rdsk/d1.


# newfs /dev/md/oracle/rdsk/d1
...
 
[sur chaque noeud :]
# mkdir -p /global/oracle/d1
 
# vi /etc/vfstab
#device                device                 mount            FS  fsck  mount   mount
#to mount              to fsck                point           type pass  at boot options
#
/dev/md/oracle/dsk/d1 /dev/md/oracle/rdsk/d1 /global/oracle/d1 ufs  2    yes global,logging
[enregistrez puis quittez]
 
[sur un noeud :]
# sccheck
# mount /global/oracle/d1
# mount
...
/global/oracle/d1 on /dev/md/oracle/dsk/d1 read/write/setuid/global/logging/
largefiles on Sun Oct 3 08:56:16 2001

Suppression d'un système de fichiers de cluster

Pour supprimer un système de fichiers de cluster, il suffit de le démonter. Si vous souhaitez également supprimer ou effacer les données, retirez du système le périphérique de disques sous-jacent (ou le métapériphérique ou volume).


Remarque :

les systèmes de fichiers de cluster sont automatiquement démontés lors de l'arrêt du système qui survient lorsque vous exécutez scshutdown( 1M) pour arrêter l'ensemble du cluster. Un système de fichiers de cluster n'est pas démonté lorsque vous exécutez la commande shutdown qui se contente d'arrêter un noeud individuel. Si, toutefois, le noeud arrêté est le seul noeud connecté au disque, toute tentative d'accès au système de fichiers du cluster sur ce disque entraîne une erreur.


Pour démonter des systèmes de fichiers de cluster, les conditions suivantes doivent être remplies :

  1. Devenez superutilisateur sur un noeud du cluster.

  2. Déterminez quels sont les systèmes de fichiers de cluster montés.


    # mount -v
    

  3. Sur chaque noeud, répertoriez tous les processus utilisant le système de fichiers du cluster afin de déterminer quels seront ceux que vous allez arrêter.


    # fuser -c [ -u ] point de montage
    

    -c

    Indique les fichiers qui sont des points de montage pour les systèmes de fichiers et répertorie tous les fichiers de ces systèmes de fichiers montés.

    -u

    (Facultatif) Affiche le nom d'utilisateur correspondant à chaque ID de processus.

    point_montage

    Indique le nom du système de fichiers du cluster dont vous souhaitez arrêter les processus.

  4. Sur chaque noeud, arrêtez tous les processus pour le système de fichiers du cluster.

    Utilisez la méthode de votre choix pour arrêter les processus. Si nécessaire, utilisez la commande suivante pour forcer l'arrêt des processus associés au système de fichiers du cluster :


    # fuser -c -k point de montage
    

    Une commande SIGKILL est envoyée à chaque processus utilisant le système de fichiers du cluster.

  5. Sur chaque noeud, vérifiez qu'aucun processus n'utilise le système de fichiers.


    # fuser -c point de montage
    

  6. Démontez le système de fichiers à partir d'un seul noeud.


    # umount point de montage
    

    point_montage

    Indique le nom du système de fichiers du cluster à démonter. Il peut s'agir du nom du répertoire dans lequel le système de fichiers du cluster est monté ou du chemin d'accès au nom du périphérique du système de fichiers.

  7. (Facultatif) Modifiez le fichier /etc/vfstab afin d'effacer l'entrée correspondant au système de fichiers du cluster en cours de suppression.

    Effectuez cette opération sur chaque noeud de cluster comportant une entrée pour ce système de fichiers dans le fichier /etc/vfstab.

  8. (Facultatif) Supprimez le groupe de périphériques de disques/métapériphérique/plex.

    Pour de plus amples informations, reportez-vous à la documentation de votre gestionnaire de volumes.

Exemple : suppression d'un système de fichiers de cluster

L'exemple suivant montre la suppression d'un système de fichiers UFS monté sur le métapériphérique Solstice DiskSuite/Solaris Volume Manager /dev/md/oracle/rdsk/d1.


# mount -v
...
/global/oracle/d1 on /dev/md/oracle/dsk/d1 read/write/setuid/global/logging/largefiles
# fuser -c /global/oracle/d1
/global/oracle/d1: 4006c
# fuser -c -k /global/oracle/d1
/global/oracle/d1: 4006c
# fuser -c /global/oracle/d1
/global/oracle/d1:
# umount /global/oracle/d1
 
(sur chaque noeud, supprimez l'entrée surlignée:)
# vi /etc/vfstab
#device           device        mount   FS      fsck    mount   mount
#to mount         to fsck       point   type    pass    at boot options
#
/dev/md/oracle/dsk/d1 /dev/md/oracle/rdsk/d1 /global/oracle/d1 ufs 2 yes global,logging
[Enregistrez et quittez.]

Remarque :

pour supprimer les données du système de fichiers du cluster, vous devez supprimer le périphérique sous-jacent. Pour de plus amples informations, reportez-vous à la documentation de votre gestionnaire de volumes.


Vérification des montages globaux dans un cluster

 L'utilitaire sccheck (1M) vérifie la syntaxe des entrées des systèmes de fichiers du cluster dans le fichier /etc/vfstab. Si aucune erreur ne se produit, l'utilitaire n'affiche pas de résultat.


Remarque :

exécutez la commande sccheck si vous avez apporté à la configuration de cluster des modifications ayant une incidence sur les périphériques ou les composants de gestion des volumes, par exemple la suppression d'un système de fichiers de cluster.


  1. Devenez superutilisateur sur un noeud du cluster.

  2. Vérifiez les montages globaux du cluster.


    # sccheck