Guide d'installation de Sun Cluster 3.0

Ajout de systèmes de fichiers de cluster

Effectuez cette tâche pour chaque système de fichiers de cluster à ajouter.


Attention : Attention :

La création d'un système de fichiers détruit toutes les données des disques. Assurez-vous d'avoir indiqué le nom correct du périphérique de disque. Si vous indiquez le nom d'un autre périphérique, son contenu sera effacé lors de la création du nouveau système de fichiers.


  1. Devenez superutilisateur sur un noeud du cluster.


    Astuce :

    Pour accélérer la création du système de fichiers, devenez superutilisateur sur le principal du périphérique global pour lequel vous créez un système de fichiers.


  2. Créez un système de fichiers à l'aide de la commande newfs(1M).


    # newfs unité_disque_brute
    

    Le tableau suivant présente des exemples de noms pour l'argument unité_disque_brute. Notez que les conventions de désignation sont différentes pour chaque gestionnaire de volumes.

    Tableau 2-3 Exemples de noms d'unités de disque brutes

    Gestionnaire de volumes 

    Exemple de nom d'unité de disque 

    Description 

    Solstice DiskSuite 

    /dev/md/oracle/rdsk/d1

    Unité de disque brute d1 dans l'ensemble de disques oracle

    VERITAS Volume Manager 

    /dev/vx/rdsk/oradg/vol01

    Unité de disque brute vol01 dans le groupe de disques oradg

    Aucun 

    /dev/global/rdsk/d1s3

    Unité de disque brute d1s3

  3. Sur chaque noeud du cluster, créez un répertoire de point de montage pour le système de fichiers de cluster.

    Un point de montage est requis sur chaque noeud, même si l'accès au système de fichiers de cluster ne se fait pas sur tous les noeuds.


    # mkdir -p /global/groupe_unités/point_montage
    
    groupe_unités

    Nom du répertoire correspondant au groupe de périphériques comportant ce périphérique

    point_montage

    Nom du répertoire sur lequel le système de fichiers de cluster doit être monté


    Astuce :

    Pour faciliter le travail d'administration, créez le point de montage dans le répertoire /global/groupe_périphériques. Cet emplacement vous permet de distinguer facilement les systèmes de fichiers du cluster, qui sont disponibles globalement, des systèmes de fichiers locaux.


  4. Sur chaque noeud du cluster, indiquez une entrée correspondant au point de montage dans le fichier /etc/vfstab.


    Remarque :

    l'option de montage syncdir n'est pas obligatoire pour les systèmes de fichiers de cluster. Si vous indiquez syncdir, vous êtes assuré d'un comportement du système de fichiers conforme POSIX. Dans le cas contraire, vous aurez le même comportement qu'avec les systèmes de fichiers UFS. Le fait de ne pas indiquer syncdir peut considérablement améliorer les performances des écritures qui allouent des blocs de disque, par exemple lors de l'ajout de données à la fin d'un fichier. Cependant, dans certains cas, si vous n'utilisez pas syncdir, vous ne découvrirez une situation d'espace insuffisant qu'en fermant un fichier. Les cas dans lesquels vous risquez d'avoir des problèmes si vous n'indiquez pas syncdir sont rares. Avec syncdir (et le comportement POSIX), la situation d'espace insuffisant serait découverte avant la fermeture.


    1. Pour monter automatiquement le système de fichiers de cluster, indiquez la valeur yes pour le champ mount at boot.

    2. Utilisez les options de montage obligatoires suivantes :

      • Avec Solaris UFS logging, utilisez les options de montage global,logging.

      • Si votre système de fichiers de cluster utilise un trans-métapériphérique Solstice DiskSuite, utilisez l'option de montage global (n'utilisez pas l'option logging). Reportez-vous à la documentation de Solstice DiskSuite pour plus d'informations sur la configuration des trans-métapériphériques.


      Remarque :

      l'option logging est requise pour tous les systèmes de fichiers de cluster.


    3. Assurez-vous que, pour chaque système de fichiers de cluster, les informations de l'entrée correspondante de /etc/vfstab sont les mêmes sur chaque noeud.

    4. Vérifiez les dépendances liées à l'ordre d'initialisation des systèmes de fichiers.

      Par exemple, imaginons un scénario dans lequel phys-schost-1 monte l'unité de disque d0 sur /global/oracle et phys-schost-2 monte l'unité de disque d1 sur /global/oracle/logs. Dans cette configuration, phys-schost-2 ne peut s'initialiser et monter /global/oracle/logs qu'une fois que phys-schost-1 s'est initialisé et a monté /global/oracle.

    5. Assurez-vous que les entrées des fichiers /etc/vfstab de chaque noeud répertorient les périphériques dans le même ordre.

    Reportez-vous à la page de manuel vfstab(4) pour plus d'informations.

  5. A partir d'un noeud quelconque du cluster, vérifiez que les points de montage existent et que les entrées du fichier /etc/vfstab sont correctes sur tous les noeuds du cluster.


    # sccheck
    

    Sil aucune erreur ne se produit, l'utilitaire n'affiche pas de résultat.

  6. A partir d'un noeud quelconque du cluster, montez le système de fichiers de cluster.


    # mount /global/groupe_unités/point_montage
    
  7. Sur chaque noeud du cluster, vérifiez que le système de fichiers du cluster est bien monté.

    Vous pouvez utiliser la commande df(1M) ou mount(1M) pour afficher la liste des systèmes de fichiers montés.

Exemple : création d'un système de fichiers de cluster

L'exemple suivant crée un système de fichiers de cluster UFS sur le métapériphérique /dev/md/oracle/rdsk/d1 de Solstice DiskSuite.




# newfs /dev/md/oracle/rdsk/d1
...
 
(on each node:)
# mkdir -p /global/oracle/d1
# vi /etc/vfstab
#device           device        mount   FS      fsck    mount   mount
#to mount         to fsck       point   type    pass    at boot options
#                       
/dev/md/oracle/dsk/d1 /dev/md/oracle/rdsk/d1 /global/oracle/d1 ufs 2 yes global,logging
(save and exit)
 
(on one node:)
# sccheck
# mount /global/oracle/d1
# mount
...
/global/oracle/d1 on /dev/md/oracle/dsk/d1 read/write/setuid/global/logging/
largefiles on Sun Oct 3 08:56:16 1999

Etape suivante

Si vos noeuds de cluster sont connectés à plusieurs sous-réseaux publics, reportez-vous à la section "Configuration d'adaptateurs de réseau public supplémentaires" pour configurer des adaptateurs de réseau public supplémentaires.

Sinon, pour configurer la PNM et définir des groupes NAFO, reportez-vous à la section "Configuration de la gestion des réseaux publics (PNM)".