Guide d'installation de Sun Cluster 3.0

Configuration du cluster

Le tableau suivant répertorie les tâches à effectuer pour configurer votre cluster.

Tableau 2-2 Plan des tâches : configuration du cluster

Tâche 

Pour les instructions, voir... 

Configuration après l'installation 

"Configuration post-installation"

Configuration du gestionnaire de volumes et des groupes de périphériques de Solstice DiskSuite ou de VERITAS Volume Manager. 

"Configuration du logiciel de gestion des volumes", ainsi que la documentation du gestionnaire de volumes

Création et montage de systèmes de fichiers de cluster. 

"Ajout de systèmes de fichiers de cluster"

(Facultatif) Configuration d'autres adaptateurs de réseau public.

"Configuration d'adaptateurs de réseau public supplémentaires"

Configuration de PNM (Public Network Management) et des groupes NAFO. 

"Configuration de la gestion des réseaux publics (PNM)"

(Facultatif) Modification du nom d'host privé d'un noeud.

"Modification des noms d'host privés"

Edition du fichier /etc/inet/ntp.conf pour mettre à jour les entrées de nom de noeud.

"Mise à jour du protocole NTP (Network Time Protocol)"

(Facultatif) Installation du module Sun Cluster pour le logiciel Sun Management Center.

"Exigences concernant l'installation du logiciel Sun Management Center pour la surveillance de Sun Cluster" ainsi que la documentation de Sun Management Center

Installation d'applications de fournisseurs tiers et configuration des applications, services de données et groupes de ressources. 

Sun Cluster 3.0 Data Services Installation and Configuration Guide, ainsi que la documentation de l'application du fournisseur tiers.

Configuration post-installation

Suivez cette procédure une seule fois, après la formation complète du cluster.

  1. Vérifiez que tous les noeuds ont rejoint le cluster.

    1. A partir d'un noeud, affichez la liste des noeuds du cluster pour vérifier que tous les noeuds ont rejoint le cluster.

      Vous n'avez pas besoin d'être connecté en tant que superutilisateur pour exécuter cette commande.


      % scstat -n
      

      Le résultat affiché par la commande ressemble à celui présenté ci-dessous.


      -- Cluster Nodes --
                         Node name      Status
                         ---------      ------
        Cluster node:    phys-schost-1  Online
        Cluster node:    phys-schost-2  Online
    2. Sur chaque noeud, affichez une liste de tous les périphériques que le système vérifie pour vous assurer de leur connectivité avec les noeuds de cluster.

      Vous n'avez pas besoin d'être connecté en tant que superutilisateur pour exécuter cette commande.


      % scdidadm -L
      

      La liste doit être la même pour chaque noeud. Le résultat affiché par la commande ressemble à celui présenté ci-dessous.


      1       phys-schost-1:/dev/rdsk/c0t0d0 /dev/did/rdsk/d1
      2       phys-schost-1:/dev/rdsk/c1t1d0 /dev/did/rdsk/d2
      2       phys-schost-2:/dev/rdsk/c1t1d0 /dev/did/rdsk/d2
      3       phys-schost-1:/dev/rdsk/c1t2d0 /dev/did/rdsk/d3
      3       phys-schost-2:/dev/rdsk/c1t2d0 /dev/did/rdsk/d3
      ...
    3. Identifiez, dans les résultats affichés par scdidadm, l'ID de périphérique (DID) global de chaque disque partagé que vous allez configurer en tant que périphérique de quorum.

      Par exemple, les résultats de la sous-étape précédente indiquent que le périphérique global d2 est partagé par phys-schost-1 et phys-schost-2. Ces informations vous seront nécessaires à l'Étape 4. Reportez-vous à la section "Périphériques de quorum" pour plus d'informations sur la planification des périphériques de quorum.

  2. Devenez superutilisateur sur un noeud du cluster.

  3. Lancez l'utilitaire scsetup(1M).


    # scsetup
    

    L'écran Initial Cluster Setup apparaît.


    Remarque :

    si le logiciel affiche le menu principal à la place de cet écran, cela signifie que cette procédure a déjà été effectuée avec succès.


  4. Répondez aux invites.

    1. A l'invite Do you want to add any quorum disks?, configurez au moins un périphérique de quorum partagé si votre cluster est un cluster à deux noeuds.

      Un cluster à deux noeuds reste en mode installation jusqu'à ce qu'un périphérique de quorum partagé soit configuré. Une fois que l'utilitaire a configuré le périphérique de quorum, le message Command completed successfully apparaît. Si votre cluster comporte trois noeuds ou plus, la configuration d'un périphérique de quorum est optionnelle.

    2. A l'invite Is it okay to reset "installmode"?, répondez Yes.

      Après avoir défini les configurations de quorum et le nombre de voies pour le cluster, l'utilitaire scsetup affiche le message Cluster initialization is complete et vous renvoie au menu principal.


    Remarque :

    si le processus de configuration du quorum est interrompu ou ne se termine pas correctement, recommencez l'Étape 3 et l'Étape 4.


  5. A partir d'un noeud quelconque, vérifiez que le mode d'installation du cluster est désactivé.


    # scconf -p | grep "Cluster install mode:"
    Cluster install mode:                                  disabled

Etape suivante

Pour configurer le logiciel de gestion des volumes, reportez-vous à la section "Configuration du logiciel de gestion des volumes".

Configuration du logiciel de gestion des volumes

  1. Gardez les informations suivantes à portée de main :

    • Les associations de vos unités de disque de stockage.

    • Les fiches de travail que vous avez remplies pour la planification de la configuration. Ces fiches, disponibles dans le document Sun Cluster 3.0 Release Notes, sont les suivantes :

      • Fiche de travail relative à la disposition des systèmes de fichiers locaux.

      • Fiche de travail relative à la configuration des groupes d'unités de disque.

      • Fiche de travail relative aux configurations du gestionnaire de volumes.

      • Fiche de travail relative aux configurations des groupes d'unités de disque.

      Reportez-vous à la section Chapitre 1 pour plus d'informations sur la planification.

  2. Suivez les procédures de configuration appropriées pour votre gestionnaire de volumes.

    Gestionnaire de volumes 

    Documentation 

    Solstice DiskSuite 

    Annexe A

    Documentation de Solstice DiskSuite 

    VERITAS Volume Manager 

    Annexe B

    Documentation de VERITAS Volume Manager 

Etape suivante

Après avoir configuré votre gestionnaire de volumes, reportez-vous à la section "Ajout de systèmes de fichiers de cluster" pour créer un système de fichiers de cluster.

Ajout de systèmes de fichiers de cluster

Effectuez cette tâche pour chaque système de fichiers de cluster à ajouter.


Attention : Attention :

La création d'un système de fichiers détruit toutes les données des disques. Assurez-vous d'avoir indiqué le nom correct du périphérique de disque. Si vous indiquez le nom d'un autre périphérique, son contenu sera effacé lors de la création du nouveau système de fichiers.


  1. Devenez superutilisateur sur un noeud du cluster.


    Astuce :

    Pour accélérer la création du système de fichiers, devenez superutilisateur sur le principal du périphérique global pour lequel vous créez un système de fichiers.


  2. Créez un système de fichiers à l'aide de la commande newfs(1M).


    # newfs unité_disque_brute
    

    Le tableau suivant présente des exemples de noms pour l'argument unité_disque_brute. Notez que les conventions de désignation sont différentes pour chaque gestionnaire de volumes.

    Tableau 2-3 Exemples de noms d'unités de disque brutes

    Gestionnaire de volumes 

    Exemple de nom d'unité de disque 

    Description 

    Solstice DiskSuite 

    /dev/md/oracle/rdsk/d1

    Unité de disque brute d1 dans l'ensemble de disques oracle

    VERITAS Volume Manager 

    /dev/vx/rdsk/oradg/vol01

    Unité de disque brute vol01 dans le groupe de disques oradg

    Aucun 

    /dev/global/rdsk/d1s3

    Unité de disque brute d1s3

  3. Sur chaque noeud du cluster, créez un répertoire de point de montage pour le système de fichiers de cluster.

    Un point de montage est requis sur chaque noeud, même si l'accès au système de fichiers de cluster ne se fait pas sur tous les noeuds.


    # mkdir -p /global/groupe_unités/point_montage
    
    groupe_unités

    Nom du répertoire correspondant au groupe de périphériques comportant ce périphérique

    point_montage

    Nom du répertoire sur lequel le système de fichiers de cluster doit être monté


    Astuce :

    Pour faciliter le travail d'administration, créez le point de montage dans le répertoire /global/groupe_périphériques. Cet emplacement vous permet de distinguer facilement les systèmes de fichiers du cluster, qui sont disponibles globalement, des systèmes de fichiers locaux.


  4. Sur chaque noeud du cluster, indiquez une entrée correspondant au point de montage dans le fichier /etc/vfstab.


    Remarque :

    l'option de montage syncdir n'est pas obligatoire pour les systèmes de fichiers de cluster. Si vous indiquez syncdir, vous êtes assuré d'un comportement du système de fichiers conforme POSIX. Dans le cas contraire, vous aurez le même comportement qu'avec les systèmes de fichiers UFS. Le fait de ne pas indiquer syncdir peut considérablement améliorer les performances des écritures qui allouent des blocs de disque, par exemple lors de l'ajout de données à la fin d'un fichier. Cependant, dans certains cas, si vous n'utilisez pas syncdir, vous ne découvrirez une situation d'espace insuffisant qu'en fermant un fichier. Les cas dans lesquels vous risquez d'avoir des problèmes si vous n'indiquez pas syncdir sont rares. Avec syncdir (et le comportement POSIX), la situation d'espace insuffisant serait découverte avant la fermeture.


    1. Pour monter automatiquement le système de fichiers de cluster, indiquez la valeur yes pour le champ mount at boot.

    2. Utilisez les options de montage obligatoires suivantes :

      • Avec Solaris UFS logging, utilisez les options de montage global,logging.

      • Si votre système de fichiers de cluster utilise un trans-métapériphérique Solstice DiskSuite, utilisez l'option de montage global (n'utilisez pas l'option logging). Reportez-vous à la documentation de Solstice DiskSuite pour plus d'informations sur la configuration des trans-métapériphériques.


      Remarque :

      l'option logging est requise pour tous les systèmes de fichiers de cluster.


    3. Assurez-vous que, pour chaque système de fichiers de cluster, les informations de l'entrée correspondante de /etc/vfstab sont les mêmes sur chaque noeud.

    4. Vérifiez les dépendances liées à l'ordre d'initialisation des systèmes de fichiers.

      Par exemple, imaginons un scénario dans lequel phys-schost-1 monte l'unité de disque d0 sur /global/oracle et phys-schost-2 monte l'unité de disque d1 sur /global/oracle/logs. Dans cette configuration, phys-schost-2 ne peut s'initialiser et monter /global/oracle/logs qu'une fois que phys-schost-1 s'est initialisé et a monté /global/oracle.

    5. Assurez-vous que les entrées des fichiers /etc/vfstab de chaque noeud répertorient les périphériques dans le même ordre.

    Reportez-vous à la page de manuel vfstab(4) pour plus d'informations.

  5. A partir d'un noeud quelconque du cluster, vérifiez que les points de montage existent et que les entrées du fichier /etc/vfstab sont correctes sur tous les noeuds du cluster.


    # sccheck
    

    Sil aucune erreur ne se produit, l'utilitaire n'affiche pas de résultat.

  6. A partir d'un noeud quelconque du cluster, montez le système de fichiers de cluster.


    # mount /global/groupe_unités/point_montage
    
  7. Sur chaque noeud du cluster, vérifiez que le système de fichiers du cluster est bien monté.

    Vous pouvez utiliser la commande df(1M) ou mount(1M) pour afficher la liste des systèmes de fichiers montés.

Exemple : création d'un système de fichiers de cluster

L'exemple suivant crée un système de fichiers de cluster UFS sur le métapériphérique /dev/md/oracle/rdsk/d1 de Solstice DiskSuite.




# newfs /dev/md/oracle/rdsk/d1
...
 
(on each node:)
# mkdir -p /global/oracle/d1
# vi /etc/vfstab
#device           device        mount   FS      fsck    mount   mount
#to mount         to fsck       point   type    pass    at boot options
#                       
/dev/md/oracle/dsk/d1 /dev/md/oracle/rdsk/d1 /global/oracle/d1 ufs 2 yes global,logging
(save and exit)
 
(on one node:)
# sccheck
# mount /global/oracle/d1
# mount
...
/global/oracle/d1 on /dev/md/oracle/dsk/d1 read/write/setuid/global/logging/
largefiles on Sun Oct 3 08:56:16 1999

Etape suivante

Si vos noeuds de cluster sont connectés à plusieurs sous-réseaux publics, reportez-vous à la section "Configuration d'adaptateurs de réseau public supplémentaires" pour configurer des adaptateurs de réseau public supplémentaires.

Sinon, pour configurer la PNM et définir des groupes NAFO, reportez-vous à la section "Configuration de la gestion des réseaux publics (PNM)".

Configuration d'adaptateurs de réseau public supplémentaires

Si les noeuds de ce cluster sont connectés à plusieurs sous-réseaux publics, vous pouvez configurer des adaptateurs de réseau public supplémentaires pour les sous-réseaux secondaires. Cependant, la configuration de sous-réseaux secondaires n'est pas obligatoire.


Remarque :

configurez uniquement les adaptateurs de réseau public, pas les adaptateurs de réseau privé.


  1. Gardez à portée de main la fiche de travail que vous avez remplie pour les réseaux publics. Cette fiche est disponible dans le document Sun Cluster 3.0 Release Notes.

  2. Devenez superutilisateur sur le noeud que vous configure pour ajouter des adaptateurs de réseau public supplémentaires.

  3. Créez un fichier appelé /etc/hostname.adaptateur, oy adaptateur est le nom de l'adaptateur.


    Remarque :

    dans chaque groupe NAFO, il ne doit exister de fichier /etc/hostname.adaptateur que pour un seul adaptateur du groupe.


  4. Tapez le nom d'host de l'adresse IP de l'adaptateur de réseau public dans le fichier /etc/hostname.adaptateur.

    L'exemple suivant présente le fichier /etc/hostname.hme3, créé pour l'adaptateur hme3, comportant le nom d'host phys-schost-1.


    # vi /etc/hostname.hme3
    phys-schost-1 
  5. Sur chaque noeud du cluster, assurez-vous que le fichier /etc/inet/hosts comporte l'adresse IP et le nom d'host correspondant affecté à l'adaptateur de réseau public.

    Par exemple, les lignes suivantes présentent l'entrée de phys-schost-1 :


    # vi /etc/inet/hosts
    ...
    192.29.75.101 phys-schost-1
    ...


    Remarque :

    cette information doit également figurer dans la base de données de votre service de noms (le cas échéant).


  6. Activez l'adaptateur sur chaque noeud du cluster.


    # ifconfig adapter plumb
    # ifconfig adapter hostname netmask + broadcast + -trailers up
    

  7. Vérifiez que l'adaptateur est configuré correctement.


    # ifconfig adaptateur
    

    Le résultat affiché doit comporter l'adresse IP correcte de l'adaptateur.

Etape suivante

Chaque adaptateur de réseau public devant être géré par le Gestionnaire de groupes de ressources (RGM) doit appartenir à un groupe NAFO. Pour configurer la PNM et définir des groupes NAFO, reportez-vous à la section "Configuration de la gestion des réseaux publics (PNM)".

Configuration de la gestion des réseaux publics (PNM)

Effectuez cette tâche sur chaque noeud du cluster.


Remarque :

tous les adaptateurs de réseau public doivent appartenir à un groupe de reprise sur panne de l'adaptateur réseau (ou NAFO, pour Network Adapter Failover). De plus, chaque noeud ne peut comporter qu'un groupe NAFO par sous-réseau.


  1. Gardez à portée de main la fiche de travail que vous avez remplie pour les réseaux publics. Cette fiche est disponible dans le document Sun Cluster 3.0 Release Notes.

  2. Devenez superutilisateur sur le noeud configuré pour un groupe NAFO.

  3. Créez le groupe NAFO.


    # pnmset -c nafo_group -o create adaptateur [adapter ...]
    -c group_nafo

    Configurez le groupe NAFO groupe-nafo

    -o create adaptateur

    Crée un nouveau groupe NAFO comportant un ou plusieurs adaptateurs de réseau public

    Reportez-vous à la page de manuel pnmset(1M) pour plus d'informations.

  4. Vérifiez l'état du groupe NAFO.


    # pnmstat -l
    

    Reportez-vous à la page de manuel pnmstat(1M) pour plus d'informations.

Exemple : configuration de la PNM

L'exemple suivant crée le groupe NAFO nafo0, qui utilise les adaptateurs de réseau public qfe1 et qfe5.


# pnmset -c nafo0 -o create qfe1 qfe5
# pnmstat -l
group  adapters       status  fo_time    act_adp
nafo0  qfe1:qfe5      OK      NEVER      qfe5
nafo1  qfe6           OK      NEVER      qfe6

Etape suivante

Si vous souhaitez modifier des noms d'host privés, reportez-vous à la section "Modification des noms d'host privés". Sinon, pour mettre à jour le fichier /etc/inet/ntp.conf, reportez-vous à la section "Mise à jour du protocole NTP (Network Time Protocol)".

Modification des noms d'host privés

Effectuez cette tâche si vous ne souhaitez pas utiliser les noms d'host privés par défaut (clusternodeID_noeud-priv) affectés lors de l'installation du logiciel Sun Cluster.


Remarque :

cette procédure ne doit pas être effectuée après la configuration et le démarrage d'applications et de services de données. En effet, une application ou un service de données risquerait de continuer à utiliser l'ancien nom d'host privé après que celui-ci a été renommé, entraînant des conflits de noms d'host. Si des applications ou services de données sont ouverts, arrêtez-les avant d'effectuer cette procédure.


  1. Devenez superutilisateur sur un noeud du cluster.

  2. Lancez l'utilitaire scsetup(1M).


    # scsetup
    
  3. Pour travailler avec des noms d'host privés, tapez 4 (Private hostnames).

  4. Pour modifier un nom d'host privé, tapez 1 (Change a private hostname).

    Suivez les invites pour modifier le nom d'host privé. Répétez cette opération pour chaque nom d'host privé à modifier.

  5. Vérifiez les nouveaux noms d'host privés.


    # scconf -pv | grep "private hostname"
    (phys-schost-1) Node private hostname:      phys-schost-1-priv
    (phys-schost-3) Node private hostname:      phys-schost-3-priv
    (phys-schost-2) Node private hostname:      phys-schost-2-priv

Etape suivante

Pour mettre à jour le fichier /etc/inet/ntp.conf, reportez-vous à la section "Mise à jour du protocole NTP (Network Time Protocol)".

Mise à jour du protocole NTP (Network Time Protocol)

Effectuez cette tâche sur chaque noeud.

  1. Devenez superutilisateur sur le noeud de cluster.

  2. Editez le fichier /etc/inet/ntp.conf.

    La commande scinstall(1M) copie un fichier modèle, ntp.cluster, dans /etc/inet/ntp.conf dans le cadre de l'installation de cluster standard. Si ce répertoire contient déjà un fichier ntp.conf avant l'installation du logiciel Sun Cluster, le fichier existant n'est pas modifié. Si vous installez des modules de cluster par un autre moyen, tel que l'utilisation directe de pkgadd(1M), vous devez configurer NTP.

    1. Supprimez toutes les entrées de noms d'host privés qui ne sont pas utilisés par le cluster.

      Si le fichier ntp.conf comporte des noms d'host privés inexistants, le noeud tente de les contacter lors de sa réinitialisation, ce qui entraîne l'affichage de messages d'erreur.

    2. Si vous avez modifié des noms d'host privés après l'installation du logiciel Sun Cluster, mettez à jour chaque entrée de fichier avec le nouveau nom d'host privé.

    3. Si nécessaire, apportez d'autres modifications pour répondre à vos exigences NTP.

      La principale exigence à laquelle répond la configuration de NTP, ou de tout autre utilitaire de synchronisation, est que tous les noeuds de cluster soient synchronisés avec la même heure. La précision de l'heure sur les noeuds individuels est moins prioritaire que la synchronisation de tous les noeuds. Vous êtes libre de configurer NTP en fonction de vos besoins individuels tant que vous respectez cette exigence de base pour la synchronisation.

      Reportez-vous au document Sun Cluster 3.0 Concepts pour plus d'informations sur l'heure du cluster, et au modèle ntp.cluster pour des instructions de configuration de NTP pour une configuration Sun Cluster.

  3. Redémarrez le démon NTP.


    # /etc/init.d/xntpd stop
    # /etc/init.d/xntpd start
    

Etape suivante

Si vous souhaitez utiliser le produit Sun Management Center pour configurer des groupes de ressources ou surveiller le cluster, reportez-vous à la section "Exigences concernant l'installation du logiciel Sun Management Center pour la surveillance de Sun Cluster".

Sinon, pour installer des applications de fournisseurs tiers, reportez-vous à la documentation fournie avec le logiciel d'applications et au document Sun Cluster 3.0 Data Services Installation and Configuration Guide. Pour enregistrer des types de ressources, configurer des groupes de ressources et des services de données, reportez-vous au document Sun Cluster 3.0 Data Services Installation and Configuration Guide.