Guide d'administration système de Sun Cluster pour SE Solaris

Administration des systèmes de fichiers d'un cluster

Le système de fichiers du cluster est un système de fichiers globalement disponible qui peut être lu et est accessible à partir de n'importe quel nœud du cluster.

Tableau 4–3 Plan des tâches : Administration des systèmes de fichiers d'un cluster

Tâche 

Pour les instructions, voir... 

Ajout de systèmes de fichiers de cluster après l'installation initiale de Sun Cluster 

- Utilisez les commandes newfs(1M) et mkdir

Ajout d'un système de fichiers de cluster

Suppression d'un système de fichiers de cluster 

- Utilisez les commandes fuser(1M) et umount(1M)

Suppression d'un système de fichiers du cluster

Vérification de la cohérence des points de montage globaux d'un cluster sur les différents nœuds 

- Utilisez la commande sccheck(1M)

Vérification des montages globaux dans un cluster

ProcedureAjout d'un système de fichiers de cluster

Effectuez cette tâche pour chaque système de fichiers de cluster créé après l'installation initiale de Sun Cluster.


Attention – Attention –

Assurez-vous d'avoir indiqué le nom correct du périphérique de disques. La création d'un système de fichiers de cluster détruit toutes les données présentes sur les disques. Si vous indiquez un nom de périphérique incorrect, vous risquez d'effacer des données que vous auriez voulu conserver.


Pour ajouter un système de fichiers de cluster supplémentaire, les conditions suivantes doivent être remplies :

Si vous avez utilisé SunPlex Manager pour installer des services de données, un ou plusieurs systèmes de fichiers du cluster existent déjà si le nombre de disques partagés existants était suffisant pour y créer ces systèmes.

Étapes
  1. Devenez superutilisateur sur un nœud du cluster.


    Astuce –

    pour accélérer la création du système de fichiers, vous devez vous connecter comme superutilisateur au nœud principal actuel du périphérique global pour lequel vous créez le système de fichiers.


  2. Créez un système de fichiers à l'aide de la commande newfs.


    Remarque –

    la commande newfs n'est valide que pour la création de systèmes de fichiers UFS. Pour créer un système de fichiers VxFS, suivez les procédures décrites dans la documentation de votre VxFS.



    # newfs raw-disk-device
    

    Le tableau suivant présente des exemples de noms pour l'argument périphérique_disques_bruts. Notez que les conventions de désignation sont différentes pour chaque gestionnaire de volumes.

    Si votre gestionnaire de volume est … 

    Un périphérique de disques peut porter le nom … 

    Description 

    Solstice DiskSuite/Solaris Volume Manager 

    /dev/md/oracle/rdsk/d1

    Périphériques de disques bruts d1 dans le jeu de disques oracle.

    SPARC : VERITAS Volume Manager 

    /dev/vx/rdsk/oradg/vol01

    Périphériques de disques bruts vol01 dans le groupe de disques oradg.

    Aucun 

    /dev/global/rdsk/d1s3

    Unité de disque brute de tranche de bloc d1s3.

  3. Sur chaque nœud du cluster, créez un répertoire de point de montage pour le système de fichiers de cluster.

    Un point de montage est requis sur chaque nœud, même si l'accès au système de fichiers de cluster ne se fait pas sur tous les nœuds.


    Astuce –

    pour vous faciliter le travail d'administration, créez le point de montage dans le répertoire /global/groupe_périphériques. Cet emplacement vous permet de distinguer facilement les systèmes de fichiers de cluster, disponibles globalement, des systèmes de fichiers locaux.



    # mkdir -p /global/device-group mountpoint
    
    groupe_unité

    Nom du répertoire correspondant au nom du groupe de périphériques contenant le périphérique en question.

    point_montage

    Nom du répertoire sur lequel vous devez monter le système de fichiers du cluster.

  4. Sur chaque nœud du cluster, indiquez une entrée correspondant au point de montage dans le fichier /etc/vfstab.

    1. Utilisez les options de montage obligatoires suivantes.


      Remarque –

      l'option logging est requise pour tous les systèmes de fichiers de cluster.


      • Journalisation UFS Solaris – utilisez les options de montage global,logging. Pour de plus amples informations sur les options de montage UFS, reportez-vous à la page de manuel mount_ufs(1M).


        Remarque –

        l'option de montage syncdir n'est pas obligatoire pour les systèmes de fichiers de cluster UFS. Si vous indiquez syncdir, vous êtes assuré d'un comportement du système de fichiers conforme à POSIX. Dans le cas contraire, vous aurez le même comportement qu'avec les systèmes de fichiers UFS. En effet, le fait de ne pas spécifier syncdir, peut considérablement améliorer les performances des écritures qui allouent des blocs de disque, par exemple lors de l'ajout de données à la fin d'un fichier. Cependant, dans certains cas, si vous n'utilisez pas syncdir, la situation d'espace insuffisant ne se présente qu'à la fermeture d'un fichier. Les cas dans lesquels vous risquez d'avoir des problèmes si vous n'indiquez pas syncdir sont rares. tandis qu'avec syncdir (et le comportement POSIX), la situation d'espace insuffisant serait découverte avant la fermeture.


      • Métapériphérique Trans ou volume de transaction Solstice DiskSuite/Solaris Volume Manager– utilisez l'option de montage global (n'utilisez pas l'option de montage logging). Pour de plus amples informations sur la configuration du métapériphérique Trans et des volumes de transaction, reportez-vous à votre documentation Solstice DiskSuite/Solaris Volume Manager.


        Remarque –

        Les volumes de transaction sont programmés pour être supprimés du système d'exploitation Solaris dans une prochaine version de Solaris. Solaris UFS logging, disponible depuis la version 8 de Solaris, fournit les mêmes capacités mais des performances supérieures, ainsi que des exigences moindres en termes de dépassement et d'administration de système.


      • Consignation VxFS – utilisez les options de montage global, et log. Reportez-vous à la page man mount_vxfs accompagnant le logiciel VxFS pour de plus amples informations.

    2. Pour monter automatiquement le système de fichiers du cluster, indiquez la valeur oui dans le champ mount at boot.

    3. Assurez-vous, pour chaque système de fichiers de cluster, que les informations de l'entrée /etc/vfstab sont les mêmes sur chaque nœud.

    4. Assurez-vous que les entrées du fichier /etc/vfstab de chaque nœud répertorient les périphériques dans le même ordre.

    5. Vérifiez les dépendances liées à l'ordre d'initialisation des systèmes de fichiers.

      Par exemple, imaginez un scénario dans lequel phys-schost-1 monte le périphérique de disques d0 sur /global/oracle et phys-schost-2 monte le périphérique de disques d1 sur /global/oracle/logs. Avec cette configuration, phys-schost-2 ne peut démarrer et monter /global/oracle/logs qu'une fois que phys-schost-1 a démarré et monté /global/oracle.

    Reportez-vous à la page de manuel vfstab(4) pour de plus amples informations.

  5. À partir d'un nœud quelconque du cluster, vérifiez que les points de montage existent et que les entrées du fichier /etc/vfstab sont correctes sur tous les nœuds de la grappe.


    # sccheck
    

    Si aucune erreur ne se produit, l'utilitaire n'affiche pas de résultat.

  6. À partir de n'importe quel nœud du cluster, montez le système de fichiers du cluster.


    # mount /global/device-group mountpoint
    
  7. Sur chaque nœud du cluster, vérifiez que le système de fichiers du cluster est bien monté.

    Vous pouvez utiliser la commande df ou mount pour afficher la liste des systèmes de fichiers montés.

    Pour gérer un système de fichiers de cluster VxFS en environnement Sun Cluster, exécutez les commandes administratives à partir du nœud principal sur lequel est monté le système de fichiers du cluster VxFS.


Exemple 4–18 Ajout d'un système de fichiers de cluster

L'exemple suivant crée un système de fichiers UFS sur le métapériphérique Solstice DiskSuite/Solaris Volume Manager ou le volume /dev/md/oracle/rdsk/d1.


# newfs /dev/md/oracle/rdsk/d1
...
 
[on each node:]
# mkdir -p /global/oracle/d1
 
# vi /etc/vfstab
#device                device                 mount            FS  fsck  mount   mount
#to mount              to fsck                point           type pass  at boot options
#                       
/dev/md/oracle/dsk/d1 /dev/md/oracle/rdsk/d1 /global/oracle/d1 ufs 2 yes global,logging

[save and exit]
 
[on one node:]
# sccheck
# mount /dev/md/oracle/dsk/d1 /global/oracle/d1
# mount
...
/global/oracle/d1 on /dev/md/oracle/dsk/d1 read/write/setuid/global/logging/largefiles 
on Sun Oct 3 08:56:16 2001

ProcedureSuppression d'un système de fichiers du cluster

Pour supprimer un système de fichiers de cluster, il suffit de le démonter. Si vous souhaitez également supprimer ou effacer les données, retirez du système le périphérique de disques sous-jacent (ou le métapériphérique ou volume).


Remarque –

Les systèmes de fichiers de cluster sont automatiquement démontés lors de l'arrêt du système qui survient lorsque vous exécutez scshutdown(1M) pour arrêter l'ensemble du cluster. Lorsque vous exécutez la commande shutdown, qui arrête seulement un nœud individuel, le système de fichiers de cluster n'est pas démonté. Si, toutefois, le nœud arrêté est le seul nœud connecté au disque, toute tentative d'accès au système de fichiers du cluster sur ce disque entraîne une erreur.


Pour démonter des systèmes de fichiers de cluster, les conditions suivantes doivent être remplies :

Étapes
  1. Devenez superutilisateur sur un nœud du cluster.

  2. Déterminez quels sont les systèmes de fichiers de cluster montés.


    # mount -v
    
  3. Sur chaque nœud, répertoriez tous les processus utilisant le système de fichiers du cluster afin de déterminer quels seront ceux que vous allez arrêter.


    # fuser -c [ -u ] mountpoint
    
    -c

    Indique les fichiers qui sont des points de montage pour les systèmes de fichiers et répertorie tous les fichiers de ces systèmes de fichiers montés.

    -u

    (Facultatif) Affiche le nom d'utilisateur correspondant à chaque ID de processus.

    point_montage

    Indique le nom du système de fichiers du cluster dont vous souhaitez arrêter les processus.

  4. Sur chaque nœud, arrêtez tous les processus pour le système de fichiers du cluster.

    Utilisez la méthode de votre choix pour arrêter les processus. Si nécessaire, utilisez la commande suivante pour forcer l'arrêt des processus associés au système de fichiers du cluster :


    # fuser -c -k mountpoint
    

    Une commande SIGKILL est envoyée à chaque processus utilisant le système de fichiers du cluster.

  5. Sur chaque nœud, vérifiez qu'aucun processus n'utilise le système de fichiers.


    # fuser -c mountpoint
    
  6. Démontez le système de fichiers à partir d'un seul nœud.


    # umount mountpoint
    
    point_montage

    Indique le nom du système de fichiers du cluster à démonter. Il peut s'agir du nom du répertoire dans lequel le système de fichiers du cluster est monté ou du chemin d'accès au nom du périphérique du système de fichiers.

  7. (Facultatif) Modifiez le fichier /etc/vfstab afin d'effacer l'entrée correspondant au système de fichiers du cluster en cours de suppression.

    Effectuez cette opération sur chaque nœud de cluster comportant une entrée pour ce système de fichiers dans le fichier /etc/vfstab.

  8. (Facultatif) Supprimez le périphérique de disque group/metadevice/volume/plex .

    Pour de plus amples informations, reportez-vous à la documentation de votre gestionnaire de volumes.


Exemple 4–19 Suppression d'un système de fichiers de cluster

L'exemple suivant supprime un système de fichiers de cluster UFS monté sur le périphérique Solstice DiskSuite/Solaris Volume Manager ou le volume/dev/md/oracle/rdsk/d1.


# mount -v
...
/global/oracle/d1 on /dev/md/oracle/dsk/d1 read/write/setuid/global/logging/largefiles 
# fuser -c /global/oracle/d1
/global/oracle/d1: 4006c
# fuser -c -k /global/oracle/d1
/global/oracle/d1: 4006c
# fuser -c /global/oracle/d1
/global/oracle/d1:
# umount /global/oracle/d1
 
(on each node, remove the highlighted entry:)
# vi /etc/vfstab
#device           device        mount   FS      fsck    mount   mount
#to mount         to fsck       point   type    pass    at boot options
#                       
/dev/md/oracle/dsk/d1 /dev/md/oracle/rdsk/d1 /global/oracle/d1 ufs 2 yes global,logging

[Save and exit.]

pour supprimer les données du système de fichiers du cluster, vous devez supprimer le périphérique sous-jacent. Pour de plus amples informations, reportez-vous à la documentation de votre gestionnaire de volumes.


ProcedureVérification des montages globaux dans un cluster

L'utilitaire sccheck(1M) vérifie la syntaxe des entrées des systèmes de fichiers du cluster dans le fichier /etc/vfstab . Si aucune erreur ne se produit, l'utilitaire n'affiche pas de résultat.


Remarque –

exécutez la commande sccheck si vous avez apporté à la configuration du cluster des modifications ayant une incidence sur les périphériques ou les composants de gestion des volumes, par exemple la suppression d'un système de fichiers du cluster.


Étapes
  1. Devenez superutilisateur sur un nœud du cluster.

  2. Vérifiez les montages globaux du cluster.


    # sccheck