Guide d'installation du logiciel Sun Cluster pour SE Solaris

Configuration du cluster

Cette rubrique fournit des informations et des procédures concernant la configuration des logiciels que vous avez installés sur le cluster.

Liste des tâches : configuration du cluster

Le tableau suivant répertorie les tâches à effectuer pour configurer votre cluster. Avant de commencer ces tâches, vérifiez que vous avez effectué les tâches suivantes :

Tableau 2–10 Liste des tâches : Configuration du cluster

Tâche 

Instructions 

Création et montage de systèmes de fichiers de cluster 

Ajout de systèmes de fichiers de cluster

Configuration des groupes IPMP 

Configuration des groupes IPMP

(Facultatif) Modification du nom d'hôte privé d'un noeud

Modification des noms d'hôtes privés

Création ou modification du fichier de configuration NTP 

Configuration du protocole NTP (Network Time Protocol)

(Facultatif) SPARC : installation du module Sun Cluster pour le logiciel Sun Management Center

SPARC: installation du module Sun Cluster pour Sun Management Center

Documentation Sun Management Center 

Installation d'applications de fournisseurs tiers et configuration des applications, services de données et groupes de ressources 

Sun Cluster Data Services Planning and Administration Guide for Solaris OS

Documentation des applications de fournisseurs tiers 

Ajout de systèmes de fichiers de cluster

Exécutez cette procédure pour chaque système de fichiers de cluster à ajouter. Un système de fichiers de cluster est accessible à partir de n'importe quel noeud du cluster.


Attention : Attention :

toutes les données présentes sur les disques sont détruites lorsque vous créez un système de fichiers. Assurez-vous d'avoir indiqué le nom correct du périphérique de disques. Dans le cas contraire, vous effacez des données que vous n'aviez sans doute pas l'intention de supprimer.


Si vous avez utilisé SunPlex Manager pour installer les services de données, SunPlex Manager peut avoir déjà créé un ou plusieurs systèmes de fichiers du cluster.

  1. Assurez-vous que le logiciel de gestion des volumes est installé et configuré.

    Pour connaître les procédures d'installation du gestionnaire de volumes, reportez-vous à la rubrique Installation et configuration du logiciel Solstice DiskSuite/Solaris Volume Manager ou SPARC: installation et configuration du logiciel VxVM.

  2. Devenez superutilisateur sur un noeud du cluster.


    Astuce :

    pour accélérer la création du système de fichiers, vous devez vous connecter comme superutilisateur au noeud principal actuel du périphérique global pour lequel vous créez le système de fichiers.


  3. Créez un système de fichiers.

    • Pour un système de fichiers UFS, utilisez la commande newfs(1M).


      # newfs périphériques_disques_bruts
      

    • SPARC : pour un système de fichiers VxFS, suivez les procédures indiquées dans la documentation VxFS.

    Le tableau suivant présente des exemples de noms pour l'argument périphérique_disques_bruts. Notez que les conventions de désignation sont différentes pour chaque gestionnaire de volumes.

    Gestionnaire de volumes 

    Exemple de nom de périphériques de disque 

    Description 

    Solstice DiskSuite ou Solaris Volume Manager 

    /dev/md/nfs/rdsk/d1

    Périphérique de disque brut d1 dans l'ensemble de disques nfs

    SPARC : VERITAS Volume Manager 

    /dev/vx/rdsk/oradg/vol01

    Périphérique de disque brut vol01 dans le groupe de disques oradg

    Aucun 

    /dev/global/rdsk/d1s3

    Périphérique de disque brut d1s3

  4. Sur chaque noeud du cluster, créez un répertoire de point de montage pour le système de fichiers de cluster.

    Un point de montage est requis sur chaque noeud, même si le système de fichiers de cluster n'est pas accessible sur ce noeud.


    Astuce :

    pour vous faciliter le travail d'administration, créez le point de montage dans le répertoire /global/groupe_périphériques. Cet emplacement vous permet de distinguer facilement les systèmes de fichiers du cluster, qui sont disponibles globalement, des systèmes de fichiers locaux.



    # mkdir -p /global/groupe_périphériques/point_montage
    
    groupe_unité

    Nom du répertoire correspondant au groupe de périphériques comportant ce périphérique.

    point_montage

    Nom du répertoire sur lequel le système de fichiers du cluster doit être monté.

  5. Sur chaque noeud de cluster, ajoutez une entrée au fichier /etc/vfstab pour le point de montage.

    Reportez-vous à la page de manuel vfstab(4) pour de plus amples informations.

    1. Dans chaque entrée, spécifiez les options de montage requises pour le type de système de fichiers que vous utilisez. Reportez-vous aux Tableau 2–11 ou Tableau 2–12 pour consulter la liste des options de montage requises.


      Remarque :

      l'option logging est requise pour tous les systèmes de fichiers de cluster. Cependant, n'utilisez pas l'option de montage logging pour les trans-métapériphériques Solstice DiskSuite ou les volumes transactionnels Solaris Volume Manager. Les trans-métapériphériques et volumes transactionnels fournissent leur propre consignation.

      En outre, La Journalisation de volumes transactionnels Solaris Volume Manager (anciennement Journalisation de trans-métapériphériques Solstice DiskSuite) doit être supprimée de l'environnement d'exploitation Solaris dans une prochaine version de Solaris. La Journalisation UFS Solaris offre les mêmes possibilités mais avec des performances optimales, ainsi que des conditions d'administration système et une surcharge allégées.


      Tableau 2–11 Options de montage pour les systèmes de fichiers de cluster UFS

      Option de montage 

      Description 

      global

      Requise. Cette option rend le système de fichiers globalement visible de tous les noeuds du cluster.

      logging

      Requise. Cette option active la consignation.

      forcedirectio

      Requise pour les systèmes de fichiers de cluster devant héberger les fichiers de données Oracle Parallel Server/Real Application Clusters RDBMS, les fichiers de consignation et les fichiers de contrôle.


      Remarque :

      Oracle Parallel Server/Real Application Clusters n'est pris en charge que sur les clusters SPARC.


      syncdir

      Facultatif. En spécifiant syncdir, vous êtes assuré que le comportement de votre système de fichiers est compatible avec POSIX pour l'appel système write(). Si l'option de montage write() réussit, cela garantit un espace suffisant sur le disque.

      Si vous ne spécifiez pas syncdir, le comportement est le même que celui des systèmes de fichiers UFS. Le fait de ne pas spécifier syncdir peut considérablement améliorer les performances des écritures qui allouent des blocs de disque, par exemple lors de l'ajout de données à la fin d'un fichier. Cependant, dans certains cas, si vous n'utilisez pas syncdir vous ne découvrirez que l'espace est insuffisant (ENOSPC) qu'au moment de la fermeture d'un fichier.

      Vous voyez ENOSPC fermé seulement pendant une très courte durée après le basculement, tandis qu'avec syncdir (et le comportement POSIX), la situation d'espace insuffisant serait découverte avant la fermeture.


      Remarque :

      n'utilisez pas les options de montage onerror=umount ou onerror=lock. Elles ne sont pas prises en charge par les systèmes de fichiers de cluster pour les raisons suivantes :

      • L'utilisation des options de montage onerror=umount ou onerror=lock peut verrouiller le système de fichiers de cluster ou le rendre inaccessible. Cette situation peut se présenter si le système de fichiers de cluster a subi une corruption de fichiers.

      • Les options de montage onerror=umount et onerror=lock peuvent rendre le système de fichiers non démontable. Cette situation peut ainsi provoquer le blocage d'applications utilisant le système de fichiers de cluster, ou l'impossibilité de tuer les applications.

      Pour que ce type de noeud récupère, il peut être nécessaire de le réinitialiser.

      Seule l'option de montage onerror=panic est prise en charge par Sun Cluster. Il n'est pas nécessaire de la spécifier dans le fichier /etc/vfstab. Elle constitue déjà la valeur par défaut si aucune autre option de montage onerror n'est spécifiée.


      Reportez-vous à la page de manuel mount_ufs(1M) pour de plus amples informations sur les options de montage UFS.

      Tableau 2–12 SPARC: options de montage pour les systèmes de fichiers de cluster VxFS

      Option de montage 

      Description 

      global

      Requise. Cette option rend le système de fichiers globalement visible pour tous les noeuds du cluster.

      log

      Requise. Cette option active la consignation.

      Reportez-vous à la page de manuel VxFS mount_vxfs et à la rubrique “Administering Cluster File Systems Overview” in Sun Cluster System Administration Guide for Solaris OS pour de plus amples informations sur les options de montage VxFS.

    2. Pour monter automatiquement le système de fichiers du cluster, indiquez la valeur oui dans le champ mount at boot.

    3. Assurez-vous, pour chaque système de fichiers de cluster, que les informations de l'entrée /etc/vfstab sont les mêmes sur chaque noeud.

    4. Assurez-vous que les entrées du fichier /etc/vfstab de chaque noeud répertorient les périphériques dans le même ordre.

    5. Vérifiez les dépendances liées à l'ordre d'initialisation des systèmes de fichiers.

      Par exemple, imaginez un scénario dans lequel phys-schost-1 monte le périphérique de disques d0 sur /global/oracle et phys-schost-2 monte le périphérique de disques d1 sur /global/oracle/logs. Avec cette configuration, phys-schost-2 ne peut démarrer et monter /global/oracle/logs qu'une fois que phys-schost-1 a démarré et monté /global/oracle.

  6. Sur un noeud du cluster, exécutez l'utilitaire sccheck(1M).

    L'utilitaire sccheck vérifie que le point de montage existe. Il vérifie également que les entrées du fichier /etc/vfstab sont correctes sur tous les noeuds du cluster.


     # sccheck
    

    Si aucune erreur ne se produit, l'utilitaire n'affiche pas de résultat.

  7. Montez le système de fichiers de cluster.


    # mount /global/groupe_périphériques/point_montage
    

    • Pour UFS, montez le système de fichiers de cluster à partir de n'importe quel noeud.

    • SPARC : pour VERITAS File System (VxFS), montez le système de fichiers de cluster à partir du maître actuel du groupe_périphériques pour garantir un montage correct. En outre, démontez les systèmes de fichiers VxFS à partir du maître actuel du groupe_périphériques afin de garantir un démontage correct.


      Remarque :

      pour gérer un système de fichiers de cluster VxFS dans un environnement Sun Cluster, n'exécutez les commandes administratives qu'à partir du noeud principal sur lequel le système de fichiers de cluster VxFS est monté.


  8. Sur chaque noeud du cluster, vérifiez que le système de fichiers du cluster est bien monté.

    Vous pouvez utiliser la commande df(1M) ou mount(1M) pour afficher la liste des systèmes de fichiers montés.

  9. Configurez les groupes IPMP.

    Reportez-vous à la rubrique Configuration des groupes IPMP.

Exemple de création d'un système de fichiers de cluster

L'exemple suivant crée un système de fichiers de cluster UFS sur le métapériphérique /dev/md/oracle/rdsk/d1 de Solstice DiskSuite.


# newfs /dev/md/oracle/rdsk/d1
…
 
(sur chaque noeud)
# mkdir -p /global/oracle/d1
# vi /etc/vfstab
#device           device        mount   FS      fsck    mount   mount
#to mount         to fsck       point   type   ; pass    at boot options
#
/dev/md/oracle/dsk/d1 /dev/md/oracle/rdsk/d1 /global/oracle/d1 ufs 2 yes global,logging
(sauvegarder et quitter)
 
(sur un noeud)
# sccheck
# mount /global/oracle/d1
# mount
…
/global/oracle/d1 on /dev/md/oracle/dsk/d1 read/write/setuid/global/logging/largefiles
on Sun Oct 3 08:56:16 2000

Configuration des groupes IPMP

Effectuez cette tâche sur chaque noeud du cluster. Si vous avez utilisé SunPlex Manager pour installer Sun Cluster HA for Apache ou Sun Cluster HA for NFS, SunPlex Manager a configuré des groupes IPMP pour les adaptateurs de réseau public utilisés par les services de données. Vous devez en configurer pour les autres adaptateurs de réseau public.


Remarque :

tous les adaptateurs de réseau public doivent appartenir à un groupe IPMP.


  1. Après l'avoir complétée, gardez à disposition votre Fiche de travail relative aux réseaux publics.

  2. Configurez les groupes IPMP.

    Pour les adresses IPv4, effectuez les procédures de la rubrique “Deploying Network Multipathing” du document IP Network Multipathing Administration Guide (Solaris 8) ou“Administering Network Multipathing (Task)” in System Administration Guide: IP Services (Solaris 9).

    Tenez compte de ces exigences supplémentaires pour configurer les groupes IPMP dans une configuration Sun Cluster :

    • Chaque adaptateur de réseau public doit appartenir à un groupe de multi-acheminement.

    • Pour les groupes de multi-acheminement contenant au moins deux adaptateurs, il faut configurer une adresse IP de test pour chaque adaptateur du groupe. Si un groupe de multi-acheminement contient un seul adaptateur, vous n'avez pas besoin de configurer une adresse IP de test.

    • Les adresses IP de test pour tous les adaptateurs du même groupe de multi-acheminement doivent appartenir à un seul sous-réseau IP.

    • Les adresses IP de test ne doivent pas être utilisées par des applications normales car elles ne sont pas hautement disponibles.

    • Dans le fichier /etc/default/mpathd, ne modifiez pas la valeur de TRACK_INTERFACES_ONLY_WITH_GROUPS de yes pour no.

    • Le nom d'un groupe de multi-acheminement ne fait l'objet d'aucune exigence ni restriction.

  3. Prévoyez-vous de modifier des noms d'hôtes privés ?

  4. Avez-vous installé votre propre fichier /etc/inet/ntp.conf avant le logiciel Sun Cluster ?

  5. Utilisez-vous Sun Cluster sur un système SPARC et prévoyez-vous d'utiliser Sun Management Center pour surveiller le cluster ?

Modification des noms d'hôtes privés

Effectuez cette tâche si vous ne souhaitez pas utiliser les noms d'hôtes privés par défaut (clusternodeid_noeud-priv) affectés lors de l'installation du logiciel Sun Cluster.


Remarque :

vous ne devez pas exécuter cette procédure après la configuration et le démarrage d'applications et des services de données. En effet, une application ou un service de données risquerait de continuer à utiliser l'ancien nom d'hôte privé après renommage de celui-ci, entraînant ainsi des conflits de noms d'hôtes. Si des applications ou services de données sont ouverts, arrêtez-les avant d'effectuer cette procédure.


  1. Devenez superutilisateur sur un noeud du cluster.

  2. Lancez l'utilitaire scsetup(1M) .


    # scsetup
    

  3. Dans le Menu principal, choisissez Noms d'hôtes privés.

  4. Dans le Menu Noms d'hôtes privés, choisissez Modifier un nom d'hôte privé.

  5. Suivez les invites pour modifier le nom d'hôte privé.

    Répétez cette opération pour chaque nom d'hôte privé à modifier.

  6. Vérifiez les nouveaux noms d'hôtes privés.


    # scconf -pv | grep "private hostname"
    (phys-schost-1) Nom d’hôte privé du noeud :      phys-schost-1-priv
    (phys-schost-3) Nom d’hôte privé du noeud :      phys-schost-3-priv
    (phys-schost-2) Nom d’hôte privé du noeud :      phys-schost-2-priv

  7. Avez-vous installé votre propre fichier /etc/inet/ntp.conf avant le logiciel Sun Cluster ?

  8. Utilisez-vous Sun Cluster sur un système SPARC et prévoyez-vous d'utiliser Sun Management Center pour surveiller le cluster ?

Configuration du protocole NTP (Network Time Protocol)

Effectuez cette tâche pour créer ou modifier le fichier de configuration NTP après l'installation du logiciel Sun Cluster. Vous devez aussi modifier le fichier de configuration NTP lorsque vous ajoutez un noeud à un cluster existant et lorsque vous modifiez le nom d'hôte privé d'un noeud du cluster.

la principale exigence lorsque vous configurez NTP, ou tout autre utilitaire de synchronisation, est que tous les noeuds de cluster soient synchronisés à la même heure. La précision de l'heure sur les noeuds individuels est secondaire par rapport à l'importance de la synchronisation de l'heure sur tous les noeuds. Vous êtes libre de configurer NTP en fonction de vos besoins individuels tant que vous respectez cette exigence de base pour la synchronisation.

Reportez-vous au Sun Cluster Concepts Guide for Solaris OS pour de plus amples informations sur l'heure du cluster. Reportez-vous au fichier /etc/inet/ntp.cluster pour obtenir des directives supplémentaires sur la configuration de NTP pour configurer Sun Cluster.

  1. Avez-vous installé votre propre fichier /etc/inet/ntp.conf avant le logiciel Sun Cluster ?

    • Dans l'affirmative, vous ne devez pas modifier votre fichier ntp.conf. Allez directement à l'Étape 8.

    • Dans la négative, allez à l'Étape 2.

  2. Connectez-vous en tant que superutilisateur sur un noeud du cluster.

  3. Votre propre fichier /etc/inet/ntp.conf est-il à installer sur les noeuds du cluster ?

    • Dans la négative, passez à l'Étape 4.

    • Dans l'affirmative, copiez votre fichier /etc/inet/ntp.conf sur chaque noeud du cluster, puis allez à l'Étape 6.

  4. Sur un noeud du cluster, éditez les noms d'hôte privés dans le fichier /etc/inet/ntp.conf.cluster.


    Remarque :

    ne renommez pas le fichier ntp.conf.cluster en tant que ntp.conf.


    Si /etc/inet/ntp.conf.cluster n'existe pas sur le noeud, il se peut que vous ayez un fichier /etc/inet/ntp.conf provenant d'une installation antérieure du logiciel Sun Cluster. Le logiciel Sun Cluster crée le fichier /etc/inet/ntp.conf.cluster comme fichier de configuration NTP si un fichier /etc/inet/ntp.conf n'est pas déjà présent sur le noeud. Dans ce cas, effectuez les modifications suivantes sur ce fichier ntp.conf.

    1. Assurez-vous qu'il existe une entrée pour le nom d'hôte privé de chaque noeud de cluster.

      Si vous avez modifié le nom d'hôte privé d'un noeud, veillez à ce que le fichier de configuration NTP contienne le nouveau nom d'hôte privé.

    2. Supprimez tout nom d'hôte privé inutilisé.

      Le fichier ntp.conf.cluster peut contenir des noms d'hôtes privés inexistants. Lorsqu'un noeud est réinitialisé, le système génère des messages d'erreur quand le noeud tente d'entrer en contact avec ces noms d'hôtes privés inexistants.

    3. Si nécessaire, apportez d'autres modifications pour répondre à vos exigences NTP.

  5. Copiez le fichier de configuration NTP sur tous les noeuds du cluster.

    Le contenu du fichier de configuration NTP doit être identique sur tous les noeuds du cluster.

  6. Arrêtez le démon NTP sur chaque noeud.

    Attendez que la commande d'arrêt se soit correctement exécutée sur chaque noeud avant de passer à l'Étape 7.


    # /etc/init.d/xntpd stop
    

  7. Redémarrez le démon NTP sur chaque noeud.

    • Si vous utilisez le fichier ntp.conf.cluster, exécutez la commande suivante :


      # /etc/init.d/xntpd.cluster start
      

      Le script de démarrage xntpd.cluster recherche tout d'abord le fichier /etc/inet/ntp.conf. Si ce fichier existe, le script quitte immédiatement, sans lancer le démon NTP. Si le fichier ntp.conf n'existe pas alors que ntp.conf.cluster existe, le script lance le démon NTP. Dans ce cas, le script utilise le fichier ntp.conf.cluster comme fichier de configuration NTP.

    • Si vous utilisez le fichier ntp.conf, exécutez la commande suivante :


      # /etc/init.d/xntpd start
      
  8. Utilisez-vous Sun Cluster sur un système SPARC et prévoyez-vous d'utiliser Sun Management Center pour surveiller le cluster ?