Guide d'installation du logiciel Sun Cluster pour SE Solaris

Configuration du cluster

Cette rubrique fournit des informations et des procédures concernant la configuration des logiciels que vous avez installés sur le cluster.

Création de systèmes de fichiers de cluster

Exécutez cette procédure pour créer un système de fichiers de cluster. Contrairement à un système de fichiers local, un système de fichiers de cluster est accessible à partir de n'importe quel nœud du cluster. Si vous avez utilisé SunPlex Installer pour installer les services de données, il se peut que SunPlex Installer ait déjà créé un ou plusieurs systèmes de fichiers de cluster.


Caution – Caution –

toutes les données présentes sur les disques sont détruites lorsque vous créez un système de fichiers. Assurez-vous d'indiquer le nom correct du périphérique de disques. Si vous indiquez un nom de périphérique incorrect, vous risquez d'effacer des données que vous auriez voulu conserver.


Exécutez cette procédure pour chacun des systèmes de fichiers de cluster que vous souhaitez créer.

  1. Assurez-vous que le logiciel de gestion des volumes est installé et configuré.

    Pour connaître les procédures d'installation du gestionnaire de volumes, reportez-vous à la rubrique Installation et configuration du logiciel Solstice DiskSuite ou Solaris Volume Manager ou SPARC: Installation et configuration du logiciel VxVM .

  2. Devenez superutilisateur sur un nœud du cluster.


    Astuce –

    pour accélérer la création du système de fichiers, vous devez vous connecter comme superutilisateur au nœud principal actuel du périphérique global pour lequel vous créez le système de fichiers.


  3. Créez un système de fichiers.

    • Pour un système de fichiers UFS, utilisez la commande newfs(1M).


      # newfs raw-disk-device
      

      Le tableau suivant présente des exemples de noms pour l'argument raw-disk-device. Notez que les conventions de désignation sont différentes pour chaque gestionnaire de volumes.

      Gestionnaire de volumes 

      Exemple de nom de périphériques de disque 

      Description 

      Solstice DiskSuite ou Solaris Volume Manager 

      /dev/md/nfs/rdsk/d1

      Périphérique de disque brut d1 au sein du jeu de disques nfs

      SPARC : VERITAS Volume Manager 

      /dev/vx/rdsk/oradg/vol01

      Périphérique de disque brut vol01 dans le groupe de disques oradg

      Aucun 

      /dev/global/rdsk/d1s3

      Périphérique de disque brut d1s3

    • Pour un système de fichiers Sun StorEdge QFS, suivez les instructions des procédures de configuration du manuel Sun StorEdge QFS and Sun StorEdge SAM-FS Software Installation and Configuration Guide.

    • SPARC : pour un système de fichiers Système de fichiers VERITAS (VxFS), suivez les instructions des procédures fournies dans la documentation de VxFS.

  4. Sur chaque nœud du cluster, créez un répertoire de point de montage pour le système de fichiers de cluster.

    Vous devez créer un point de montage sur chaque nœud, même si l'accès au système de fichiers de cluster ne se fait pas sur tous les nœuds.


    Astuce –

    Pour faciliter le travail d'administration, créez le point de montage dans le répertoire /global/device-group/. Cet emplacement vous permet de distinguer facilement les systèmes de fichiers du cluster, qui sont disponibles globalement, des systèmes de fichiers locaux.



    # mkdir -p /global/device-group/mountpoint/
    
    groupe_unité

    Nom du répertoire correspondant au groupe de périphériques comportant ce périphérique.

    point_montage

    Nom du répertoire sur lequel le système de fichiers du cluster doit être monté.

  5. Sur chaque nœud du cluster, indiquez une entrée correspondant au point de montage dans le fichier /etc/vfstab.

    Reportez-vous à la page man vfstab(4) pour de plus amples informations.

    1. Dans chacune des entrées, indiquez les options de montage requises pour le type de système de fichiers utilisé. Pour obtenir la liste des options de montage requises, reportez-vous au Tableau 2–10, Tableau 2–11 ou Tableau 2–12.


      Remarque –

      N'utilisez pas l'option de montage logging avec les trans-métapériphériques Solstice DiskSuite ou les volumes transactionnels Solaris Volume Manager. Les trans-métapériphériques et volumes transactionnels fournissent leur propre consignation.

      En outre, Solaris Volume Manager Journalisation de volumes de transaction (anciennement Solstice DiskSuite Journalisation de trans-métapériphériques) doit être supprimée du système d'exploitation Solaris dans une prochaine version de Solaris. La Journalisation UFS Solaris offre les mêmes possibilités mais avec des performances optimales, ainsi que des conditions d'administration système et une surcharge allégées.


      Tableau 2–10 Options de montage pour les systèmes de fichiers de cluster UFS

      Option de montage 

      Description 

      global

      Requise. Cette option rend le système de fichiers globalement visible de tous les nœuds du cluster.

      logging

      Requise. Cette option active la consignation.

      forcedirectio

      Requise pour les systèmes de fichiers de cluster devant héberger les fichiers de données Oracle Real Application Clusters RDBMS, les fichiers de consignation et les fichiers de contrôle.


      Remarque –

      Oracle Real Application Clusters n'est pris en charge que sur les clusters SPARC.


      onerror=panic

      Requise. Il n'est pas nécessaire de spécifier explicitement cette option de montage dans le fichier /etc/vfstab. Elle constitue déjà la valeur par défaut si aucune autre option de montage onerror n'est spécifiée.


      Remarque –

      Seule l'option de montage onerror=panic est prise en charge par Sun Cluster. n'utilisez pas les options de montage onerror=umount ou onerror=lock. Elles ne sont pas prises en charge par les systèmes de fichiers de cluster pour les raisons suivantes :

      • L'utilisation des options de montage onerror=umount ou onerror=lock peut entraîner le verrouillage ou l'inaccessibilité du système de fichiers de cluster. Cette situation peut se présenter si le système de fichiers de cluster a subi une corruption de fichiers.

      • Les options de montage onerror=umount et onerror=lock peuvent rendre le système de fichiers démontable. Cette situation peut ainsi provoquer le blocage d'applications utilisant le système de fichiers de cluster, ou l'impossibilité de tuer les applications.

      Pour que ce type de nœud récupère, il peut être nécessaire de le réinitialiser.


      syncdir

      Facultative. En spécifiant syncdir, vous êtes assuré que le comportement de votre système de fichiers est compatible avec POSIX pour l'appel système write(). Si l'option de montage write() réussit, cela garantit un espace suffisant sur le disque.

      Si vous ne spécifiez pas l'option syncdir, le comportement observé est le même que celui des systèmes de fichiers UFS. En effet, le fait de ne pas spécifier syncdir, peut considérablement améliorer les performances des écritures qui allouent des blocs de disque, par exemple lors de l'ajout de données à la fin d'un fichier. Cependant, dans certains cas, si vous n'utilisez pas syncdir vous ne découvrirez que l'espace est insuffisant (ENOSPC) qu'au moment de la fermeture d'un fichier.

      Vous voyez ENOSPC fermé seulement pendant une très courte durée après le basculement, tandis qu'avec syncdir (et le comportement POSIX), la situation d'espace insuffisant serait découverte avant la fermeture.

      Reportez-vous à la page man mount_ufs(1M) pour plus d'informations sur les options de montage UFS.

      Tableau 2–11 SPARC: Paramètres de montage des systèmes de fichiers partagés Sun StorEdge QFS

      Paramètre de montage 

      Description 

      shared

      Requise. Cette option indique qu'il s'agit d'un système de fichiers partagés, qui est de ce fait visible par tous les nœuds du cluster.


      Attention – Attention –

      Assurez-vous que les paramètres du fichier /etc/vfstab ne sont pas en conflit avec ceux du fichier /etc/opt/SUNWsamfs/samfs.cmd. Les paramètres du fichier /etc/vfstab remplacent ceux du fichier /etc/opt/SUNWsamfs/samfs.cmd.


      Certains services de données tels que Prise en charge de Sun Cluster pour Oracle Real Application Clusters possèdent d'autres exigences et directives concernant les paramètres de montage QFS. Reportez-vous à votre manuel de service de données pour connaître ces exigences.

      Reportez-vous à la page man mount_samfs( 1M) pour plus d'informations concernant les paramètres de montage QFS.


      Remarque –

      L'enregistrement n'est pas activé par le paramètre de montage /etc/vfstab. Pour activer l'enregistrement, suivez les procédures décrites dans le document Sun StorEdge QFS and Sun StorEdge SAM-FS Software Installation and Configuration Guide.


      Tableau 2–12 SPARC: Options de montage pour les systèmes de fichiers de cluster VxFS

      Option de montage 

      Description 

      global

      Requise. Cette option rend le système de fichiers globalement visible de tous les nœuds du cluster.

      log

      Requise. Cette option active la consignation.

      Reportez-vous à la page man VxFS mount_vxfs et à la rubrique “Administering Cluster File Systems Overview” in Sun Cluster System Administration Guide for Solaris OS pour de plus amples informations sur les options de montage VxFS.

    2. Pour monter automatiquement le système de fichiers du cluster, indiquez la valeur yes dans le champ mount at boot.

    3. Assurez-vous, pour chaque système de fichiers de cluster, que les informations de l'entrée /etc/vfstab sont les mêmes sur chaque nœud.

    4. Assurez-vous que les entrées du fichier /etc/vfstab de chaque nœud répertorient les périphériques dans le même ordre.

    5. Vérifiez les dépendances liées à l'ordre d'initialisation des systèmes de fichiers.

      Par exemple, imaginez un scénario dans lequel phys-schost-1 monte le périphérique de disques d0 sur /global/oracle/ et phys-schost-2 monte le périphérique de disques d1 sur /global/oracle/logs/. Avec cette configuration, phys-schost-2 ne peut démarrer et monter /global/oracle/logs/ qu'une fois que phys-schost-1 a démarré et monté /global/oracle/.

  6. Sur l'un des nœuds du cluster, exécutez l'utilitaire sccheck (1M).

    L'utilitaire sccheck vérifie que le point de montage existe. Il vérifie également que les entrées du fichier /etc/vfstab sont correctes sur tous les nœuds du cluster.


    # sccheck
    

    Si aucune erreur ne se produit, l'utilitaire n'affiche pas de résultat.

  7. Montez le système de fichiers de cluster.


    # mount /global/device-group/mountpoint/
    

    • Pour UFS et QFS, montez le système de fichiers de cluster à partir de n'importe quel nœud.

    • SPARC : Pour VxFS, monte le système de fichiers de cluster à partir du maître actuel du device-group pour garantir le montage correct du système de fichiers. En outre, démontez un système de fichiers VxFS du maître actuel du device-group afin de garantir un démontage correct du système de fichiers.


      Remarque –

      pour gérer un système de fichiers de cluster VxFS dans un environnement Sun Cluster, n'exécutez les commandes administratives qu'à partir du nœud principal sur lequel le système de fichiers de cluster VxFS est monté.


  8. Sur chaque nœud du cluster, vérifiez que le système de fichiers du cluster est bien monté.

    Vous pouvez utiliser la commande df(1M) ou mount(1M) pour afficher la liste des systèmes de fichiers montés.

  9. Configurez les groupes Multiacheminement sur réseau IP.

    Reportez-vous à la rubrique Configuration des groupes Multiacheminement sur réseau IP .

Exemple de création d'un système de fichiers de cluster

L'exemple suivant crée un système de fichiers de cluster UFS sur le métapériphérique /dev/md/oracle/rdsk/d1 de Solstice DiskSuite.


# newfs /dev/md/oracle/rdsk/d1
…
 
(sur chaque nœud)
# mkdir -p /global/oracle/d1
# vi /etc/vfstab
#device           device        mount   FS      fsck    mount   mount
#to mount         to fsck       point   type   ; pass    at boot options
#
/dev/md/oracle/dsk/d1 /dev/md/oracle/rdsk/d1 /global/oracle/d1 ufs 2 yes global,logging
(sauvegarder et quitter)
 
(sur un nœud)
# sccheck
# mount /global/oracle/d1
# mount
…
/global/oracle/d1 on /dev/md/oracle/dsk/d1 read/write/setuid/global/logging/largefiles
on Sun Oct 3 08:56:16 2000

Configuration des groupes Multiacheminement sur réseau IP

Effectuez cette tâche sur chaque nœud du cluster. Si vous avez utilisé SunPlex Installer pour installer Sun Cluster HA pour Apache ou Sun Cluster HA pour NFS, SunPlex Installer a configuré les groupes Multiacheminement sur réseau IP pour les adaptateurs de réseau public utilisés par les services de données. Vous devez en configurer pour les autres adaptateurs de réseau public.


Remarque –

tous les adaptateurs de réseau public doivent appartenir à un groupe Multiacheminement sur réseau IP.


  1. Après l'avoir complétée, gardez à disposition votre Fiche de travail relative aux réseaux publics.

  2. Configurez les groupes Multiacheminement sur réseau IP.

    Pour les adresses IPv4, effectuez les procédures de la rubrique “Deploying Network Multipathing ” du document IP Network Multipathing Administration Guide (Solaris 8) ou “Administering Network Multipathing (Task) ” in System Administration Guide: IP Services (Solaris 9).

    Tenez compte de ces exigences supplémentaires pour configurer les groupes Multiacheminement sur réseau IP dans une configuration Sun Cluster :

    • Chaque adaptateur de réseau public doit appartenir à un groupe de multiacheminement.

    • Pour les groupes de multiacheminement contenant au moins deux adaptateurs, il faut configurer une adresse IP de test pour chaque adaptateur du groupe. Si un groupe de multiacheminement contient un seul adaptateur, vous n'avez pas besoin de configurer une adresse IP de test.

    • Les adresses IP de test pour tous les adaptateurs du même groupe de multi-acheminement doivent appartenir à un seul sous-réseau IP.

    • Les adresses IP de test ne doivent pas être utilisées par des applications normales car elles ne sont pas hautement disponibles.

    • Dans le fichier /etc/default/mpathd, la propriété TRACK_INTERFACES_ONLY_WITH_GROUPS doit être paramétrée sur yes.

    • Le nom d'un groupe de multiacheminement ne fait l'objet d'aucune exigence ni restriction.

  3. Si vous souhaitez modifier les noms d'hôte privés, reportez-vous à la section Modification des noms d'hôtes privés .

  4. Si vous n'avez pas installé votre propre fichier /etc/inet/ntp.conf avant d'installer le logiciel Sun Cluster, installez ou créez un fichier de configuration NTP.

    Reportez-vous à la section Configuration du protocole NTP (Network Time Protocol) .

  5. Si vous utilisez Sun Cluster sur un système SPARC et que vous souhaitez vous servir de Sun Management Center pour contrôler le cluster, installez le module Sun Cluster pour Sun Management Center.

    Reportez-vous à la section SPARC: installation du module Sun Cluster pour Sun Management Center .

  6. Installez les applications de fournisseurs tiers, enregistrez les types de registres, définissez les groupes de ressources et configurez les services de données.

    Suivez les procédures du document Sun Cluster Data Services Planning and Administration Guide for Solaris OS et de la documentation fournie avec votre logiciel d'application.

Modification des noms d'hôtes privés

Effectuez cette tâche si vous ne souhaitez pas utiliser les noms d'hôtes privés par défaut (clusternodenodeid-priv) affectés lors de l'installation du logiciel Sun Cluster.


Remarque –

vous ne devez pas exécuter cette procédure après la configuration et le démarrage d'applications et des services de données. En effet, une application ou un service de données risquerait de continuer à utiliser l'ancien nom d'hôte privé après renommage de celui-ci, entraînant ainsi des conflits de noms d'hôtes. Si des applications ou services de données sont ouverts, arrêtez-les avant d'effectuer cette procédure.


Effectuez cette procédure sur un nœud actif du cluster.

  1. Devenez superutilisateur sur un nœud du cluster.

  2. Lancez l'utilitaire scsetup(1M).


    # scsetup
    

  3. Dans le menu principal, sélectionnez l'option Noms d'hôte privés.

  4. Dans le menu Noms d'hôte privés, sélectionnez l'option Modifier un nom d'hôte privé.

  5. Suivez les invites pour modifier le nom d'hôte privé.

    Répétez cette opération pour chaque nom d'hôte privé à modifier.

  6. Vérifiez les nouveaux noms d'hôte privés.


    # scconf -pv | grep "private hostname"
    (phys-schost-1) Node private hostname:      phys-schost-1-priv
    (phys-schost-3) Node private hostname:      phys-schost-3-priv
    (phys-schost-2) Node private hostname:      phys-schost-2-priv

  7. Si vous n'avez pas installé votre propre fichier /etc/inet/ntp.conf avant d'installer le logiciel Sun Cluster, installez ou créez un fichier de configuration NTP.

    Reportez-vous à la section Configuration du protocole NTP (Network Time Protocol) .

  8. (Facultatif) SPARC : Configurez Sun Management Center pour contrôler le cluster.

    Reportez-vous à la section SPARC: installation du module Sun Cluster pour Sun Management Center .

  9. Installez les applications de fournisseurs tiers, enregistrez les types de registres, définissez les groupes de ressources et configurez les services de données.

    Reportez-vous à la documentation fournie avec le logiciel d'application ainsi qu'au Sun Cluster Data Services Planning and Administration Guide for Solaris OS.

Configuration du protocole NTP (Network Time Protocol)

Effectuez cette tâche pour créer ou modifier le fichier de configuration NTP après l'installation du logiciel Sun Cluster. Vous devez aussi modifier le fichier de configuration NTP lorsque vous ajoutez un nœud à un cluster existant et lorsque vous modifiez le nom d'hôte privé d'un nœud du cluster. Si vous avez ajouté un nœud à un cluster à nœud unique, vous devez vous assurer que le fichier de configuration NTP que vous utilisez est copié sur le nœud initial du cluster.

la principale exigence lorsque vous configurez NTP, ou tout autre utilitaire de synchronisation, est que tous les nœuds de cluster soient synchronisés à la même heure. La précision de l'heure sur les nœuds individuels est secondaire par rapport à l'importance de la synchronisation de l'heure sur tous les nœuds. Vous êtes libre de configurer NTP en fonction de vos besoins individuels tant que vous respectez cette exigence de base pour la synchronisation.

Reportez-vous au Sun Cluster Concepts Guide for Solaris OS pour de plus amples informations sur l'heure du cluster. Reportez-vous au fichier /etc/inet/ntp.cluster pour obtenir des directives supplémentaires sur la configuration de NTP pour configurer Sun Cluster.

  1. Si vous avez installé votre propre fichier /etc/inet/ntp.conf avant d'avoir installé le logiciel Sun Cluster, vous n'avez pas besoin de modifier le fichier ntp.conf.

    Allez directement à l'Étape 8.

  2. Connectez-vous en tant que superutilisateur sur un nœud du cluster.

  3. Si vous avez installé votre propre fichier, copiez-le sur chaque nœud du cluster.

  4. Si vous n'installez pas votre propre fichier /etc/inet/ntp.conf, utilisez le fichier /etc/inet/ntp.conf.cluster comme fichier de configuration NTP.


    Remarque –

    Ne renommez pas le fichier ntp.conf.cluster en tant que ntp.conf.


    Si /etc/inet/ntp.conf.cluster n'existe pas sur le nœud, il se peut que vous ayez un fichier /etc/inet/ntp.conf provenant d'une installation antérieure du logiciel Sun Cluster. Le logiciel Sun Cluster crée le fichier /etc/inet/ntp.conf.cluster comme fichier de configuration NTP si un fichier /etc/inet/ntp.conf n'est pas déjà présent sur le nœud. Dans ce cas, effectuez les modifications suivantes sur ce fichier ntp.conf.

    1. Pour modifier le fichier /etc/inet/ntp.conf.cluster, ouvrez-le dans un éditeur de texte sur un nœud du cluster.

    2. Assurez-vous qu'il existe une entrée pour le nom d'hôte privé de chaque nœud de cluster.

      Si vous avez modifié le nom d'hôte privé d'un nœud, veillez à ce que le fichier de configuration NTP contienne le nouveau nom d'hôte privé.

    3. Supprimez tout nom d'hôte privé inutilisé.

      Le fichier ntp.conf.cluster peut contenir des noms d'hôtes privés inexistants. Lorsqu'un nœud est réinitialisé, le système génère des messages d'erreur quand le nœud tente d'entrer en contact avec ces noms d'hôtes privés inexistants.

    4. Si nécessaire, apportez d'autres modifications pour répondre à vos exigences NTP.

  5. Copiez le fichier de configuration NTP sur tous les nœuds du cluster.

    Le contenu du fichier de configuration NTP doit être identique sur tous les nœuds du cluster.

  6. Arrêtez le démon NTP sur chaque nœud.

    Attendez que la commande d'arrêt se soit correctement exécutée sur chaque nœud avant de passer à l'Étape 7.


    # /etc/init.d/xntpd stop
    

  7. Redémarrez le démon NTP sur chaque nœud.

    • Si vous utilisez le fichier ntp.conf.cluster, exécutez la commande suivante :


      # /etc/init.d/xntpd.cluster start
      

      Le script de démarrage xntpd.cluster recherche tout d'abord le fichier /etc/inet/ntp.conf. Si ce fichier existe, le script quitte immédiatement, sans lancer le démon NTP. Si le fichier ntp.conf n'existe pas alors que ntp.conf.cluster existe, le script lance le démon NTP. Dans ce cas, le script utilise le fichier ntp.conf.cluster comme fichier de configuration NTP.

    • Si vous utilisez le fichier ntp.conf, exécutez la commande suivante :


      # /etc/init.d/xntpd start
      
  8. (Facultatif) SPARC : Configurez Sun Management Center pour contrôler le cluster.

    Reportez-vous à la section SPARC: installation du module Sun Cluster pour Sun Management Center .

  9. Installez les applications de fournisseurs tiers, enregistrez les types de registres, définissez les groupes de ressources et configurez les services de données.

    Reportez-vous à la documentation fournie avec le logiciel d'application ainsi qu'au Sun Cluster Data Services Planning and Administration Guide for Solaris OS.