Guide d'installation du logiciel Sun Cluster pour SE Solaris

Ajout de systèmes de fichiers de cluster

Exécutez cette procédure pour chaque système de fichiers de cluster à ajouter. Un système de fichiers de cluster est accessible à partir de n'importe quel noeud du cluster.


Attention : Attention :

toutes les données présentes sur les disques sont détruites lorsque vous créez un système de fichiers. Assurez-vous d'avoir indiqué le nom correct du périphérique de disques. Dans le cas contraire, vous effacez des données que vous n'aviez sans doute pas l'intention de supprimer.


Si vous avez utilisé SunPlex Manager pour installer les services de données, SunPlex Manager peut avoir déjà créé un ou plusieurs systèmes de fichiers du cluster.

  1. Assurez-vous que le logiciel de gestion des volumes est installé et configuré.

    Pour connaître les procédures d'installation du gestionnaire de volumes, reportez-vous à la rubrique Installation et configuration du logiciel Solstice DiskSuite/Solaris Volume Manager ou SPARC: installation et configuration du logiciel VxVM.

  2. Devenez superutilisateur sur un noeud du cluster.


    Astuce :

    pour accélérer la création du système de fichiers, vous devez vous connecter comme superutilisateur au noeud principal actuel du périphérique global pour lequel vous créez le système de fichiers.


  3. Créez un système de fichiers.

    • Pour un système de fichiers UFS, utilisez la commande newfs(1M).


      # newfs périphériques_disques_bruts
      

    • SPARC : pour un système de fichiers VxFS, suivez les procédures indiquées dans la documentation VxFS.

    Le tableau suivant présente des exemples de noms pour l'argument périphérique_disques_bruts. Notez que les conventions de désignation sont différentes pour chaque gestionnaire de volumes.

    Gestionnaire de volumes 

    Exemple de nom de périphériques de disque 

    Description 

    Solstice DiskSuite ou Solaris Volume Manager 

    /dev/md/nfs/rdsk/d1

    Périphérique de disque brut d1 dans l'ensemble de disques nfs

    SPARC : VERITAS Volume Manager 

    /dev/vx/rdsk/oradg/vol01

    Périphérique de disque brut vol01 dans le groupe de disques oradg

    Aucun 

    /dev/global/rdsk/d1s3

    Périphérique de disque brut d1s3

  4. Sur chaque noeud du cluster, créez un répertoire de point de montage pour le système de fichiers de cluster.

    Un point de montage est requis sur chaque noeud, même si le système de fichiers de cluster n'est pas accessible sur ce noeud.


    Astuce :

    pour vous faciliter le travail d'administration, créez le point de montage dans le répertoire /global/groupe_périphériques. Cet emplacement vous permet de distinguer facilement les systèmes de fichiers du cluster, qui sont disponibles globalement, des systèmes de fichiers locaux.



    # mkdir -p /global/groupe_périphériques/point_montage
    
    groupe_unité

    Nom du répertoire correspondant au groupe de périphériques comportant ce périphérique.

    point_montage

    Nom du répertoire sur lequel le système de fichiers du cluster doit être monté.

  5. Sur chaque noeud de cluster, ajoutez une entrée au fichier /etc/vfstab pour le point de montage.

    Reportez-vous à la page de manuel vfstab(4) pour de plus amples informations.

    1. Dans chaque entrée, spécifiez les options de montage requises pour le type de système de fichiers que vous utilisez. Reportez-vous aux Tableau 2–11 ou Tableau 2–12 pour consulter la liste des options de montage requises.


      Remarque :

      l'option logging est requise pour tous les systèmes de fichiers de cluster. Cependant, n'utilisez pas l'option de montage logging pour les trans-métapériphériques Solstice DiskSuite ou les volumes transactionnels Solaris Volume Manager. Les trans-métapériphériques et volumes transactionnels fournissent leur propre consignation.

      En outre, La Journalisation de volumes transactionnels Solaris Volume Manager (anciennement Journalisation de trans-métapériphériques Solstice DiskSuite) doit être supprimée de l'environnement d'exploitation Solaris dans une prochaine version de Solaris. La Journalisation UFS Solaris offre les mêmes possibilités mais avec des performances optimales, ainsi que des conditions d'administration système et une surcharge allégées.


      Tableau 2–11 Options de montage pour les systèmes de fichiers de cluster UFS

      Option de montage 

      Description 

      global

      Requise. Cette option rend le système de fichiers globalement visible de tous les noeuds du cluster.

      logging

      Requise. Cette option active la consignation.

      forcedirectio

      Requise pour les systèmes de fichiers de cluster devant héberger les fichiers de données Oracle Parallel Server/Real Application Clusters RDBMS, les fichiers de consignation et les fichiers de contrôle.


      Remarque :

      Oracle Parallel Server/Real Application Clusters n'est pris en charge que sur les clusters SPARC.


      syncdir

      Facultatif. En spécifiant syncdir, vous êtes assuré que le comportement de votre système de fichiers est compatible avec POSIX pour l'appel système write(). Si l'option de montage write() réussit, cela garantit un espace suffisant sur le disque.

      Si vous ne spécifiez pas syncdir, le comportement est le même que celui des systèmes de fichiers UFS. Le fait de ne pas spécifier syncdir peut considérablement améliorer les performances des écritures qui allouent des blocs de disque, par exemple lors de l'ajout de données à la fin d'un fichier. Cependant, dans certains cas, si vous n'utilisez pas syncdir vous ne découvrirez que l'espace est insuffisant (ENOSPC) qu'au moment de la fermeture d'un fichier.

      Vous voyez ENOSPC fermé seulement pendant une très courte durée après le basculement, tandis qu'avec syncdir (et le comportement POSIX), la situation d'espace insuffisant serait découverte avant la fermeture.


      Remarque :

      n'utilisez pas les options de montage onerror=umount ou onerror=lock. Elles ne sont pas prises en charge par les systèmes de fichiers de cluster pour les raisons suivantes :

      • L'utilisation des options de montage onerror=umount ou onerror=lock peut verrouiller le système de fichiers de cluster ou le rendre inaccessible. Cette situation peut se présenter si le système de fichiers de cluster a subi une corruption de fichiers.

      • Les options de montage onerror=umount et onerror=lock peuvent rendre le système de fichiers non démontable. Cette situation peut ainsi provoquer le blocage d'applications utilisant le système de fichiers de cluster, ou l'impossibilité de tuer les applications.

      Pour que ce type de noeud récupère, il peut être nécessaire de le réinitialiser.

      Seule l'option de montage onerror=panic est prise en charge par Sun Cluster. Il n'est pas nécessaire de la spécifier dans le fichier /etc/vfstab. Elle constitue déjà la valeur par défaut si aucune autre option de montage onerror n'est spécifiée.


      Reportez-vous à la page de manuel mount_ufs(1M) pour de plus amples informations sur les options de montage UFS.

      Tableau 2–12 SPARC: options de montage pour les systèmes de fichiers de cluster VxFS

      Option de montage 

      Description 

      global

      Requise. Cette option rend le système de fichiers globalement visible pour tous les noeuds du cluster.

      log

      Requise. Cette option active la consignation.

      Reportez-vous à la page de manuel VxFS mount_vxfs et à la rubrique “Administering Cluster File Systems Overview” in Sun Cluster System Administration Guide for Solaris OS pour de plus amples informations sur les options de montage VxFS.

    2. Pour monter automatiquement le système de fichiers du cluster, indiquez la valeur oui dans le champ mount at boot.

    3. Assurez-vous, pour chaque système de fichiers de cluster, que les informations de l'entrée /etc/vfstab sont les mêmes sur chaque noeud.

    4. Assurez-vous que les entrées du fichier /etc/vfstab de chaque noeud répertorient les périphériques dans le même ordre.

    5. Vérifiez les dépendances liées à l'ordre d'initialisation des systèmes de fichiers.

      Par exemple, imaginez un scénario dans lequel phys-schost-1 monte le périphérique de disques d0 sur /global/oracle et phys-schost-2 monte le périphérique de disques d1 sur /global/oracle/logs. Avec cette configuration, phys-schost-2 ne peut démarrer et monter /global/oracle/logs qu'une fois que phys-schost-1 a démarré et monté /global/oracle.

  6. Sur un noeud du cluster, exécutez l'utilitaire sccheck(1M).

    L'utilitaire sccheck vérifie que le point de montage existe. Il vérifie également que les entrées du fichier /etc/vfstab sont correctes sur tous les noeuds du cluster.


     # sccheck
    

    Si aucune erreur ne se produit, l'utilitaire n'affiche pas de résultat.

  7. Montez le système de fichiers de cluster.


    # mount /global/groupe_périphériques/point_montage
    

    • Pour UFS, montez le système de fichiers de cluster à partir de n'importe quel noeud.

    • SPARC : pour VERITAS File System (VxFS), montez le système de fichiers de cluster à partir du maître actuel du groupe_périphériques pour garantir un montage correct. En outre, démontez les systèmes de fichiers VxFS à partir du maître actuel du groupe_périphériques afin de garantir un démontage correct.


      Remarque :

      pour gérer un système de fichiers de cluster VxFS dans un environnement Sun Cluster, n'exécutez les commandes administratives qu'à partir du noeud principal sur lequel le système de fichiers de cluster VxFS est monté.


  8. Sur chaque noeud du cluster, vérifiez que le système de fichiers du cluster est bien monté.

    Vous pouvez utiliser la commande df(1M) ou mount(1M) pour afficher la liste des systèmes de fichiers montés.

  9. Configurez les groupes IPMP.

    Reportez-vous à la rubrique Configuration des groupes IPMP.

Exemple de création d'un système de fichiers de cluster

L'exemple suivant crée un système de fichiers de cluster UFS sur le métapériphérique /dev/md/oracle/rdsk/d1 de Solstice DiskSuite.


# newfs /dev/md/oracle/rdsk/d1
…
 
(sur chaque noeud)
# mkdir -p /global/oracle/d1
# vi /etc/vfstab
#device           device        mount   FS      fsck    mount   mount
#to mount         to fsck       point   type   ; pass    at boot options
#
/dev/md/oracle/dsk/d1 /dev/md/oracle/rdsk/d1 /global/oracle/d1 ufs 2 yes global,logging
(sauvegarder et quitter)
 
(sur un noeud)
# sccheck
# mount /global/oracle/d1
# mount
…
/global/oracle/d1 on /dev/md/oracle/dsk/d1 read/write/setuid/global/logging/largefiles
on Sun Oct 3 08:56:16 2000