Guide d'installation du logiciel Sun Cluster pour SE Solaris

Création de systèmes de fichiers de cluster

Exécutez cette procédure pour créer un système de fichiers de cluster. Contrairement à un système de fichiers local, un système de fichiers de cluster est accessible à partir de n'importe quel nœud du cluster. Si vous avez utilisé SunPlex Installer pour installer les services de données, il se peut que SunPlex Installer ait déjà créé un ou plusieurs systèmes de fichiers de cluster.


Caution – Caution –

toutes les données présentes sur les disques sont détruites lorsque vous créez un système de fichiers. Assurez-vous d'indiquer le nom correct du périphérique de disques. Si vous indiquez un nom de périphérique incorrect, vous risquez d'effacer des données que vous auriez voulu conserver.


Exécutez cette procédure pour chacun des systèmes de fichiers de cluster que vous souhaitez créer.

  1. Assurez-vous que le logiciel de gestion des volumes est installé et configuré.

    Pour connaître les procédures d'installation du gestionnaire de volumes, reportez-vous à la rubrique Installation et configuration du logiciel Solstice DiskSuite ou Solaris Volume Manager ou SPARC: Installation et configuration du logiciel VxVM .

  2. Devenez superutilisateur sur un nœud du cluster.


    Astuce –

    pour accélérer la création du système de fichiers, vous devez vous connecter comme superutilisateur au nœud principal actuel du périphérique global pour lequel vous créez le système de fichiers.


  3. Créez un système de fichiers.

    • Pour un système de fichiers UFS, utilisez la commande newfs(1M).


      # newfs raw-disk-device
      

      Le tableau suivant présente des exemples de noms pour l'argument raw-disk-device. Notez que les conventions de désignation sont différentes pour chaque gestionnaire de volumes.

      Gestionnaire de volumes 

      Exemple de nom de périphériques de disque 

      Description 

      Solstice DiskSuite ou Solaris Volume Manager 

      /dev/md/nfs/rdsk/d1

      Périphérique de disque brut d1 au sein du jeu de disques nfs

      SPARC : VERITAS Volume Manager 

      /dev/vx/rdsk/oradg/vol01

      Périphérique de disque brut vol01 dans le groupe de disques oradg

      Aucun 

      /dev/global/rdsk/d1s3

      Périphérique de disque brut d1s3

    • Pour un système de fichiers Sun StorEdge QFS, suivez les instructions des procédures de configuration du manuel Sun StorEdge QFS and Sun StorEdge SAM-FS Software Installation and Configuration Guide.

    • SPARC : pour un système de fichiers Système de fichiers VERITAS (VxFS), suivez les instructions des procédures fournies dans la documentation de VxFS.

  4. Sur chaque nœud du cluster, créez un répertoire de point de montage pour le système de fichiers de cluster.

    Vous devez créer un point de montage sur chaque nœud, même si l'accès au système de fichiers de cluster ne se fait pas sur tous les nœuds.


    Astuce –

    Pour faciliter le travail d'administration, créez le point de montage dans le répertoire /global/device-group/. Cet emplacement vous permet de distinguer facilement les systèmes de fichiers du cluster, qui sont disponibles globalement, des systèmes de fichiers locaux.



    # mkdir -p /global/device-group/mountpoint/
    
    groupe_unité

    Nom du répertoire correspondant au groupe de périphériques comportant ce périphérique.

    point_montage

    Nom du répertoire sur lequel le système de fichiers du cluster doit être monté.

  5. Sur chaque nœud du cluster, indiquez une entrée correspondant au point de montage dans le fichier /etc/vfstab.

    Reportez-vous à la page man vfstab(4) pour de plus amples informations.

    1. Dans chacune des entrées, indiquez les options de montage requises pour le type de système de fichiers utilisé. Pour obtenir la liste des options de montage requises, reportez-vous au Tableau 2–10, Tableau 2–11 ou Tableau 2–12.


      Remarque –

      N'utilisez pas l'option de montage logging avec les trans-métapériphériques Solstice DiskSuite ou les volumes transactionnels Solaris Volume Manager. Les trans-métapériphériques et volumes transactionnels fournissent leur propre consignation.

      En outre, Solaris Volume Manager Journalisation de volumes de transaction (anciennement Solstice DiskSuite Journalisation de trans-métapériphériques) doit être supprimée du système d'exploitation Solaris dans une prochaine version de Solaris. La Journalisation UFS Solaris offre les mêmes possibilités mais avec des performances optimales, ainsi que des conditions d'administration système et une surcharge allégées.


      Tableau 2–10 Options de montage pour les systèmes de fichiers de cluster UFS

      Option de montage 

      Description 

      global

      Requise. Cette option rend le système de fichiers globalement visible de tous les nœuds du cluster.

      logging

      Requise. Cette option active la consignation.

      forcedirectio

      Requise pour les systèmes de fichiers de cluster devant héberger les fichiers de données Oracle Real Application Clusters RDBMS, les fichiers de consignation et les fichiers de contrôle.


      Remarque –

      Oracle Real Application Clusters n'est pris en charge que sur les clusters SPARC.


      onerror=panic

      Requise. Il n'est pas nécessaire de spécifier explicitement cette option de montage dans le fichier /etc/vfstab. Elle constitue déjà la valeur par défaut si aucune autre option de montage onerror n'est spécifiée.


      Remarque –

      Seule l'option de montage onerror=panic est prise en charge par Sun Cluster. n'utilisez pas les options de montage onerror=umount ou onerror=lock. Elles ne sont pas prises en charge par les systèmes de fichiers de cluster pour les raisons suivantes :

      • L'utilisation des options de montage onerror=umount ou onerror=lock peut entraîner le verrouillage ou l'inaccessibilité du système de fichiers de cluster. Cette situation peut se présenter si le système de fichiers de cluster a subi une corruption de fichiers.

      • Les options de montage onerror=umount et onerror=lock peuvent rendre le système de fichiers démontable. Cette situation peut ainsi provoquer le blocage d'applications utilisant le système de fichiers de cluster, ou l'impossibilité de tuer les applications.

      Pour que ce type de nœud récupère, il peut être nécessaire de le réinitialiser.


      syncdir

      Facultative. En spécifiant syncdir, vous êtes assuré que le comportement de votre système de fichiers est compatible avec POSIX pour l'appel système write(). Si l'option de montage write() réussit, cela garantit un espace suffisant sur le disque.

      Si vous ne spécifiez pas l'option syncdir, le comportement observé est le même que celui des systèmes de fichiers UFS. En effet, le fait de ne pas spécifier syncdir, peut considérablement améliorer les performances des écritures qui allouent des blocs de disque, par exemple lors de l'ajout de données à la fin d'un fichier. Cependant, dans certains cas, si vous n'utilisez pas syncdir vous ne découvrirez que l'espace est insuffisant (ENOSPC) qu'au moment de la fermeture d'un fichier.

      Vous voyez ENOSPC fermé seulement pendant une très courte durée après le basculement, tandis qu'avec syncdir (et le comportement POSIX), la situation d'espace insuffisant serait découverte avant la fermeture.

      Reportez-vous à la page man mount_ufs(1M) pour plus d'informations sur les options de montage UFS.

      Tableau 2–11 SPARC: Paramètres de montage des systèmes de fichiers partagés Sun StorEdge QFS

      Paramètre de montage 

      Description 

      shared

      Requise. Cette option indique qu'il s'agit d'un système de fichiers partagés, qui est de ce fait visible par tous les nœuds du cluster.


      Attention – Attention –

      Assurez-vous que les paramètres du fichier /etc/vfstab ne sont pas en conflit avec ceux du fichier /etc/opt/SUNWsamfs/samfs.cmd. Les paramètres du fichier /etc/vfstab remplacent ceux du fichier /etc/opt/SUNWsamfs/samfs.cmd.


      Certains services de données tels que Prise en charge de Sun Cluster pour Oracle Real Application Clusters possèdent d'autres exigences et directives concernant les paramètres de montage QFS. Reportez-vous à votre manuel de service de données pour connaître ces exigences.

      Reportez-vous à la page man mount_samfs( 1M) pour plus d'informations concernant les paramètres de montage QFS.


      Remarque –

      L'enregistrement n'est pas activé par le paramètre de montage /etc/vfstab. Pour activer l'enregistrement, suivez les procédures décrites dans le document Sun StorEdge QFS and Sun StorEdge SAM-FS Software Installation and Configuration Guide.


      Tableau 2–12 SPARC: Options de montage pour les systèmes de fichiers de cluster VxFS

      Option de montage 

      Description 

      global

      Requise. Cette option rend le système de fichiers globalement visible de tous les nœuds du cluster.

      log

      Requise. Cette option active la consignation.

      Reportez-vous à la page man VxFS mount_vxfs et à la rubrique “Administering Cluster File Systems Overview” in Sun Cluster System Administration Guide for Solaris OS pour de plus amples informations sur les options de montage VxFS.

    2. Pour monter automatiquement le système de fichiers du cluster, indiquez la valeur yes dans le champ mount at boot.

    3. Assurez-vous, pour chaque système de fichiers de cluster, que les informations de l'entrée /etc/vfstab sont les mêmes sur chaque nœud.

    4. Assurez-vous que les entrées du fichier /etc/vfstab de chaque nœud répertorient les périphériques dans le même ordre.

    5. Vérifiez les dépendances liées à l'ordre d'initialisation des systèmes de fichiers.

      Par exemple, imaginez un scénario dans lequel phys-schost-1 monte le périphérique de disques d0 sur /global/oracle/ et phys-schost-2 monte le périphérique de disques d1 sur /global/oracle/logs/. Avec cette configuration, phys-schost-2 ne peut démarrer et monter /global/oracle/logs/ qu'une fois que phys-schost-1 a démarré et monté /global/oracle/.

  6. Sur l'un des nœuds du cluster, exécutez l'utilitaire sccheck (1M).

    L'utilitaire sccheck vérifie que le point de montage existe. Il vérifie également que les entrées du fichier /etc/vfstab sont correctes sur tous les nœuds du cluster.


    # sccheck
    

    Si aucune erreur ne se produit, l'utilitaire n'affiche pas de résultat.

  7. Montez le système de fichiers de cluster.


    # mount /global/device-group/mountpoint/
    

    • Pour UFS et QFS, montez le système de fichiers de cluster à partir de n'importe quel nœud.

    • SPARC : Pour VxFS, monte le système de fichiers de cluster à partir du maître actuel du device-group pour garantir le montage correct du système de fichiers. En outre, démontez un système de fichiers VxFS du maître actuel du device-group afin de garantir un démontage correct du système de fichiers.


      Remarque –

      pour gérer un système de fichiers de cluster VxFS dans un environnement Sun Cluster, n'exécutez les commandes administratives qu'à partir du nœud principal sur lequel le système de fichiers de cluster VxFS est monté.


  8. Sur chaque nœud du cluster, vérifiez que le système de fichiers du cluster est bien monté.

    Vous pouvez utiliser la commande df(1M) ou mount(1M) pour afficher la liste des systèmes de fichiers montés.

  9. Configurez les groupes Multiacheminement sur réseau IP.

    Reportez-vous à la rubrique Configuration des groupes Multiacheminement sur réseau IP .

Exemple de création d'un système de fichiers de cluster

L'exemple suivant crée un système de fichiers de cluster UFS sur le métapériphérique /dev/md/oracle/rdsk/d1 de Solstice DiskSuite.


# newfs /dev/md/oracle/rdsk/d1
…
 
(sur chaque nœud)
# mkdir -p /global/oracle/d1
# vi /etc/vfstab
#device           device        mount   FS      fsck    mount   mount
#to mount         to fsck       point   type   ; pass    at boot options
#
/dev/md/oracle/dsk/d1 /dev/md/oracle/rdsk/d1 /global/oracle/d1 ufs 2 yes global,logging
(sauvegarder et quitter)
 
(sur un nœud)
# sccheck
# mount /global/oracle/d1
# mount
…
/global/oracle/d1 on /dev/md/oracle/dsk/d1 read/write/setuid/global/logging/largefiles
on Sun Oct 3 08:56:16 2000